Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • Таємниці Сфінкса: навіщо насправді створили велетенську статую в Гізі
    • Вже сьогодні: у Раді анонсували гучне рішення Зеленського
    • Користувачів Android просять терміново оновити свої пристрої: що сталося
    • Вчені б’ють на сполох: сонячний суперспалах підняв радіацію до рекорду за 20 років
    • Ухилянтів чекає новий вал “репресій”: хочуть максимально ускладнити життя
    • Принц Гаррі пожартував про Трампа та дорікнув американцям на телебаченні США
    • Банки посилили правила фінмоніторингу: які перекази масово перевіряють
    • У The Economist розкрили, що має зробити Європа, аби врятувати Україну
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » “Всі помруть”: дослідники штучного інтелекту попередили про небезпеку вже за кілька років

    “Всі помруть”: дослідники штучного інтелекту попередили про небезпеку вже за кілька років

    Романчук МиколаРоманчук Микола21 Вересня 2025, 20:321 Min Read Технології
    Поділитись
    Facebook Twitter Telegram

    Група експертів з дослідження ризиків штучного інтелекту оприлюднила шокуючий прогноз у новій книзі “Якщо хтось це побудує, всі помруть”. Вони попереджають, що штучний суперінтелект (ІСІ) може з’явитися вже через два–п’ять років і загрожувати виживанню людства.

    Про це пише Mirror.

    Автори книги, серед яких засновник Інституту досліджень машинного інтелекту Еліезер Юдковскі та президент організації Нейт Соарес, стверджують, що ІСІ зможе самостійно приймати рішення, розробляти стратегії та вдосконалювати власні можливості, що робить його практично неконтрольованим.

    “Якщо якась компанія або група створить штучний надінтелект на основі хоча б віддалено сучасних технологій, всі люди на Землі помруть”, — зазначають дослідники. Вони наголошують, що суперінтелект не буде вести “чесний бій”, а використовуватиме складні стратегії захоплення та маніпуляцій, залишаючись непомітним до моменту, коли завдасть рішучого удару.

    За словами експертів, лабораторії вже запускають системи, чиї можливості вони не до кінця розуміють. Дослідники попереджають, що такі ІІ здатні формувати власні цілі і обходити навіть встановлені заходи безпеки. Так, 2024 року Британський інститут безпеки ШІ продемонстрував, що за допомогою базових методів підказок можна обійти обмеження ІІ-моделей на кшталт ChatGPT та отримати допомогу для подвійного призначення, включно із військовим використанням.

    Експерти закликають призупинити розробки суперінтелекту до того, як його потенціал стане неконтрольованим, і вказують, що часу на це залишається дуже мало.

    ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».

    Читайте ЕКСПЕРТ у Google News Підписатися
    штучний інтелект
    She Womo
    Останні новини
    Сьогодні

    Таємниці Сфінкса: навіщо насправді створили велетенську статую в Гізі

    14:09

    Вже сьогодні: у Раді анонсували гучне рішення Зеленського

    14:05

    Користувачів Android просять терміново оновити свої пристрої: що сталося

    13:30

    Вчені б’ють на сполох: сонячний суперспалах підняв радіацію до рекорду за 20 років

    13:27

    Ухилянтів чекає новий вал “репресій”: хочуть максимально ускладнити життя

    13:23

    Принц Гаррі пожартував про Трампа та дорікнув американцям на телебаченні США

    13:16

    Банки посилили правила фінмоніторингу: які перекази масово перевіряють

    13:13

    У The Economist розкрили, що має зробити Європа, аби врятувати Україну

    13:09

    Україна отримує мільярди, але не відчує їх: старі борги “зжирають” транш МВФ

    13:00

    Правила бронювання змінено: хто тепер не підлягає мобілізації

    12:49
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2025 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.