Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • “Корона з голови не впала б”: ще одна країна вимагає публічної подяки від Зеленського
    • В Україні хочуть посилити правила виїзду чоловіків за кордон: кого не випустять
    • Як приготувати яйця-пашот без плити за 45 секунд: вийдуть ідеальними
    • США вже почали відкрито підігравати Кремлю: з чим тиснуть на Європу
    • ТЦК не потягнуть до суду: справи закриють без розгляду
    • Цей кросовер відірвуть з руками: названо найпопулярніший “‎свіжопригнаний”‎ легковик
    • Таємниці Сфінкса: навіщо насправді створили велетенську статую в Гізі
    • Вже сьогодні: у Раді анонсували гучне рішення Зеленського
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » “Всі помруть”: дослідники штучного інтелекту попередили про небезпеку вже за кілька років

    “Всі помруть”: дослідники штучного інтелекту попередили про небезпеку вже за кілька років

    Романчук МиколаРоманчук Микола21 Вересня 2025, 20:321 Min Read Технології
    Поділитись
    Facebook Twitter Telegram

    Група експертів з дослідження ризиків штучного інтелекту оприлюднила шокуючий прогноз у новій книзі “Якщо хтось це побудує, всі помруть”. Вони попереджають, що штучний суперінтелект (ІСІ) може з’явитися вже через два–п’ять років і загрожувати виживанню людства.

    Про це пише Mirror.

    Автори книги, серед яких засновник Інституту досліджень машинного інтелекту Еліезер Юдковскі та президент організації Нейт Соарес, стверджують, що ІСІ зможе самостійно приймати рішення, розробляти стратегії та вдосконалювати власні можливості, що робить його практично неконтрольованим.

    “Якщо якась компанія або група створить штучний надінтелект на основі хоча б віддалено сучасних технологій, всі люди на Землі помруть”, — зазначають дослідники. Вони наголошують, що суперінтелект не буде вести “чесний бій”, а використовуватиме складні стратегії захоплення та маніпуляцій, залишаючись непомітним до моменту, коли завдасть рішучого удару.

    За словами експертів, лабораторії вже запускають системи, чиї можливості вони не до кінця розуміють. Дослідники попереджають, що такі ІІ здатні формувати власні цілі і обходити навіть встановлені заходи безпеки. Так, 2024 року Британський інститут безпеки ШІ продемонстрував, що за допомогою базових методів підказок можна обійти обмеження ІІ-моделей на кшталт ChatGPT та отримати допомогу для подвійного призначення, включно із військовим використанням.

    Експерти закликають призупинити розробки суперінтелекту до того, як його потенціал стане неконтрольованим, і вказують, що часу на це залишається дуже мало.

    ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».

    Читайте ЕКСПЕРТ у Google News Підписатися
    штучний інтелект
    She Womo
    Останні новини
    Сьогодні

    “Корона з голови не впала б”: ще одна країна вимагає публічної подяки від Зеленського

    14:26

    В Україні хочуть посилити правила виїзду чоловіків за кордон: кого не випустять

    14:21

    Як приготувати яйця-пашот без плити за 45 секунд: вийдуть ідеальними

    14:18

    США вже почали відкрито підігравати Кремлю: з чим тиснуть на Європу

    14:15

    ТЦК не потягнуть до суду: справи закриють без розгляду

    14:12

    Цей кросовер відірвуть з руками: названо найпопулярніший “‎свіжопригнаний”‎ легковик

    14:11

    Таємниці Сфінкса: навіщо насправді створили велетенську статую в Гізі

    14:09

    Вже сьогодні: у Раді анонсували гучне рішення Зеленського

    14:05

    Користувачів Android просять терміново оновити свої пристрої: що сталося

    13:30

    Вчені б’ють на сполох: сонячний суперспалах підняв радіацію до рекорду за 20 років

    13:27
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2025 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.