Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • Розкрилися нові деталі атаки на заступника голови ГРУ: чи є «український слід»
    • Не «СВО»: Лавров погрожує Європі повноцінною війною
    • Ілон Маск і Марк Цукерберг у файлах Епштейна: знайшли нове фото
    • США “воюють” з Китаєм за корисні копалини з Африки, – Reuters
    • Угорський міністр Сіярто підтримав нелегальний виїзд українських чоловіків
    • Платіжки шокують: прогнозують масштабний перерахунок тарифів на комуналку
    • У Росії істерика: розкрито причину, чому катастрофа для Путіна не за горами
    • До Сонця наближається рідкісний об’єкт: вчені сказали, чим це може закінчитися
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » “Всі помруть”: дослідники штучного інтелекту попередили про небезпеку вже за кілька років

    “Всі помруть”: дослідники штучного інтелекту попередили про небезпеку вже за кілька років

    Романчук МиколаРоманчук Микола21 Вересня 2025, 20:321 Min Read Технології
    Поділитись
    Facebook Twitter Telegram

    Група експертів з дослідження ризиків штучного інтелекту оприлюднила шокуючий прогноз у новій книзі “Якщо хтось це побудує, всі помруть”. Вони попереджають, що штучний суперінтелект (ІСІ) може з’явитися вже через два–п’ять років і загрожувати виживанню людства.

    Про це пише Mirror.

    Автори книги, серед яких засновник Інституту досліджень машинного інтелекту Еліезер Юдковскі та президент організації Нейт Соарес, стверджують, що ІСІ зможе самостійно приймати рішення, розробляти стратегії та вдосконалювати власні можливості, що робить його практично неконтрольованим.

    “Якщо якась компанія або група створить штучний надінтелект на основі хоча б віддалено сучасних технологій, всі люди на Землі помруть”, — зазначають дослідники. Вони наголошують, що суперінтелект не буде вести “чесний бій”, а використовуватиме складні стратегії захоплення та маніпуляцій, залишаючись непомітним до моменту, коли завдасть рішучого удару.

    За словами експертів, лабораторії вже запускають системи, чиї можливості вони не до кінця розуміють. Дослідники попереджають, що такі ІІ здатні формувати власні цілі і обходити навіть встановлені заходи безпеки. Так, 2024 року Британський інститут безпеки ШІ продемонстрував, що за допомогою базових методів підказок можна обійти обмеження ІІ-моделей на кшталт ChatGPT та отримати допомогу для подвійного призначення, включно із військовим використанням.

    Експерти закликають призупинити розробки суперінтелекту до того, як його потенціал стане неконтрольованим, і вказують, що часу на це залишається дуже мало.

    ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».

    Читайте ЕКСПЕРТ у Google News Підписатися
    штучний інтелект
    Останні новини
    Сьогодні

    Розкрилися нові деталі атаки на заступника голови ГРУ: чи є «український слід»

    12:36

    Не «СВО»: Лавров погрожує Європі повноцінною війною

    12:00

    Ілон Маск і Марк Цукерберг у файлах Епштейна: знайшли нове фото

    11:47

    США “воюють” з Китаєм за корисні копалини з Африки, – Reuters

    10:59

    Угорський міністр Сіярто підтримав нелегальний виїзд українських чоловіків

    10:57

    Платіжки шокують: прогнозують масштабний перерахунок тарифів на комуналку

    10:56

    У Росії істерика: розкрито причину, чому катастрофа для Путіна не за горами

    10:34

    До Сонця наближається рідкісний об’єкт: вчені сказали, чим це може закінчитися

    10:32

    У США випустили пиво з ведмежих какашок: яке воно на смак

    10:31

    Перехоплення Білого дому: чому в США посилили контроль над розвідданими

    08:34
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2026 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.