Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • Розвага може мати наслідки: українців почали штрафувати за відео у TikTok
    • Саркофаг на ЧАЕС не виконує частину функцій після удару РФ: МАГАТЕ заявило про небезпеку
    • Жеребкування на Чемпіонат світу з футболу: Україна дізналась потенційних суперників
    • Путін ризикує серйозно зіпсувати відносини із Трампом: на Заході вказали на важливий нюанс
    • На Заході розкрили секрет успіху ворога: як диверсанти РФ роз’їдають оборону Покровська
    • Чи чекати на «пекельну» ніч? З’явилися тривожні прогнози щодо нового масованого удару вночі
    • Спите біля вікна: тоді не дивуйтеся, чому щоранку ледве підводитеся
    • Чоловік прожив 30 років із запальничкою у шлунку — вона досі працювала
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » Топ-розробники у сфері ШІ масово звільняються, бо не хочуть знищити людство

    Топ-розробники у сфері ШІ масово звільняються, бо не хочуть знищити людство

    Дмитрук АндрійДмитрук Андрій19 Червня 2025, 14:301 Min Read Технології
    Поділитись
    Facebook Twitter Telegram

    Світові експерти з розробки штучного інтелекту залишають свої посади в провідних технологічних компаніях через страх перед тим, що їхня діяльність може призвести до глобальної катастрофи. За даними Axios, у Google, Meta та OpenAI зростає занепокоєння щодо потенційних ризиків, які несе розвиток нейромереж.

    Рівень тривоги серед топменеджерів галузі досяг такого рівня, що деякі з них відмовляються далі працювати над удосконаленням ШІ. Вони публічно визнають, що не до кінця розуміють, як саме функціонують деякі великі мовні моделі, а це підсилює побоювання втрати контролю над системами. Один із засновників Anthropic Даріо Амодеї оцінив ризик знищення людства ШІ у 10–25%. Ілон Маск говорить про 20%, а Сундар Пічаї вважає загрозу «досить високою».

    «Ви б сіли в літак, знаючи, що шанс на катастрофу — один із десяти? А як щодо одного з п’яти? Тоді чому ми запускаємо ШІ у світ?» — риторично питають засновники Axios.

    Деякі дослідники зазначають, що певні функції сучасних ШІ-моделей генеруються без прямого впливу людини, а отже, й без можливості їх повного контролю. У гонитві за швидкістю та потужністю «віртуальні аспіранти» вже зараз можуть приймати рішення, які розробники не здатні передбачити чи пояснити.

    ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».

    Читайте ЕКСПЕРТ у Google News Підписатися
    Google Meta openAI загроза людство нейромережі штучний інтелект
    She Womo
    Останні новини
    Сьогодні

    Розвага може мати наслідки: українців почали штрафувати за відео у TikTok

    09:47

    Саркофаг на ЧАЕС не виконує частину функцій після удару РФ: МАГАТЕ заявило про небезпеку

    09:44

    Жеребкування на Чемпіонат світу з футболу: Україна дізналась потенційних суперників

    09:39

    Путін ризикує серйозно зіпсувати відносини із Трампом: на Заході вказали на важливий нюанс

    09:36

    На Заході розкрили секрет успіху ворога: як диверсанти РФ роз’їдають оборону Покровська

    09:30
    05 Грудня

    Чи чекати на «пекельну» ніч? З’явилися тривожні прогнози щодо нового масованого удару вночі

    23:10

    Спите біля вікна: тоді не дивуйтеся, чому щоранку ледве підводитеся

    22:43

    Чоловік прожив 30 років із запальничкою у шлунку — вона досі працювала

    22:40

    Археологи знайшли під водою посуд, якому понад 900 років: він навіть не змінився

    22:36

    ПФУ нараховує “борги” пенсіонерам заднім числом: кого зобов’яжуть повернути виплати

    22:34
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2025 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.