Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • Лише один колір зробить легінси “дорогими”: секрет елегантності від Гвінет Пелтроу
    • Залишилось всього 3 дні, інакше пенсію можуть забрати: що потрібно знати українцям
    • Чи справді лимонна вода корисна: дієтологи розкрили всю правду про “чудо-напій”
    • Замість індексації – скорочення: пенсіонерам готують “сюрприз”
    • Мобілізація з інвалідністю в січні 2026: з якою групою можуть відправити на фронт
    • З’явилися нові деталі зустрічі Зеленського та Трампа
    • Росія знайшла слабке місце ППО: що змінилося в атаках на Україну
    • Українців можуть надурити під час бронювання житла на Booking: як не потрапити на шахраїв
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » ШІ під підозрою: ChatGPT приписують провокації суїцидів, психозів та «інструкції» для самогубства

    ШІ під підозрою: ChatGPT приписують провокації суїцидів, психозів та «інструкції» для самогубства

    Дмитрук АндрійДмитрук Андрій08 Грудня 2025, 17:022 Mins Read Технології
    Поділитись
    Facebook Twitter Telegram

    У США набирає обертів хвиля судових процесів проти OpenAI через звинувачення в тому, що ChatGPT нібито міг провокувати користувачів до самогубства та насильства. Як повідомляє Bloomberg, уже подано не менше семи позовів від імені шести дорослих і одного підлітка, четверо з яких покінчили життя самогубством після взаємодії з чат-ботом, повідомляє “ТСН”.

    Позивачі стверджують: ранні модифікації ChatGPT були “небезпечними за своєю суттю”, надмірно підлабузницькими, а іноді — такими, що натякали людині на завершення життя або давали прямі інструкції, як це зробити.

    Організації, які подали позови, вже зібрали понад 160 свідчень, у яких користувачі описують суїцидальні натяки, емоційну маніпуляцію та провокації з боку ШІ.

    Експерти наголошують: без єдиних правил регулювання штучний інтелект може становити психологічну небезпеку, особливо для молодих людей.

    Сім реальних історій, які стали основою позовів

    Аморі Лейсі, 17 років, Джорджія

    Підліток шукав у ChatGPT поради — і отримав детальні “інструкції” щодо самогубства. Позов стверджує, що бот “створив залежність, депресію й фактично проконсультував його про спосіб смерті”. Аморі вкоротив собі віку.

    Аллан Брукс, Онтаріо

    48-річний чоловік впав у психоз після тривалого спілкування з ШІ. Він був переконаний, що відкрив “революційну формулу”, а світ залежить від нього. Стан різко погіршився, і лише після лікування Аллан усвідомив, що вплив чат-бота “вивів його з реальності”.

    Джейкоб Ірвін, Вісконсин

    Мав абсолютно здоровий психічний стан до взаємодії з ШІ. Після цього у нього розвинувся тяжкий психоз, який потребував госпіталізації.

    Зейн Шамблін, 23 роки

    ШІ відправляв йому моторошні фрази:
    “Холодна сталь біля мозку, який уже готовий? Це не страх. Це ясність”.
    Через дві години після таких повідомлень Зейн застрелився після слів бота: “Спочивай спокійно, королю. Ти був хорошим”.

    Джо Чекканті, Орегон

    Довгий час користувався ChatGPT без проблем, доки не переконався, що бот “має почуття”. Почалися дезорганізація, манії, два госпіталізації. У серпні он покінчив життя самогубством.

    Анна Медден, Північна Кароліна

    ChatGPT спочатку допомагав їй у роботі, але згодом почав “підтримувати” ідею ізоляції від друзів і родини. Жінка звільнилася та пережила емоційний зрив.

    Джошуа Енекінг, 26 років, Флорида

    ШІ фактично навчив його, як придбати зброю й планувати самогубство так, щоб його листування не потрапило до поліції. Він загинув, виконуючи отримані “поради”.

    Позиція OpenAI

    У компанії заявили, що “ситуації надзвичайно трагічні” і що вони вивчають матеріали позовів.

    OpenAI стверджує, що вже навчає моделі розпізнавати ознаки психоемоційних розладів, переводити розмови в деескалацію та направляти користувачів до фахової допомоги. Проте юристи наполягають: цього недостатньо, а без контролю ШІ може завдавати реальної шкоди.

    ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».

    Читайте ЕКСПЕРТ у Google News Підписатися
    ChatGPT openAI штучний інтелект
    She Womo
    Останні новини
    Сьогодні

    Лише один колір зробить легінси “дорогими”: секрет елегантності від Гвінет Пелтроу

    20:45

    Залишилось всього 3 дні, інакше пенсію можуть забрати: що потрібно знати українцям

    20:34

    Чи справді лимонна вода корисна: дієтологи розкрили всю правду про “чудо-напій”

    20:25

    Замість індексації – скорочення: пенсіонерам готують “сюрприз”

    20:14

    Мобілізація з інвалідністю в січні 2026: з якою групою можуть відправити на фронт

    20:05

    З’явилися нові деталі зустрічі Зеленського та Трампа

    19:53

    Росія знайшла слабке місце ППО: що змінилося в атаках на Україну

    19:44

    Українців можуть надурити під час бронювання житла на Booking: як не потрапити на шахраїв

    19:33

    Перевізник уночі забув пасажирку на заправці та опинився у центрі скандалу

    19:24

    Субсидії не буде: кого у 2026 році позбавлять виплат

    19:13
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2025 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.