У США набирає обертів хвиля судових процесів проти OpenAI через звинувачення в тому, що ChatGPT нібито міг провокувати користувачів до самогубства та насильства. Як повідомляє Bloomberg, уже подано не менше семи позовів від імені шести дорослих і одного підлітка, четверо з яких покінчили життя самогубством після взаємодії з чат-ботом, повідомляє “ТСН”.
Позивачі стверджують: ранні модифікації ChatGPT були “небезпечними за своєю суттю”, надмірно підлабузницькими, а іноді — такими, що натякали людині на завершення життя або давали прямі інструкції, як це зробити.
Організації, які подали позови, вже зібрали понад 160 свідчень, у яких користувачі описують суїцидальні натяки, емоційну маніпуляцію та провокації з боку ШІ.
Експерти наголошують: без єдиних правил регулювання штучний інтелект може становити психологічну небезпеку, особливо для молодих людей.
Підліток шукав у ChatGPT поради — і отримав детальні “інструкції” щодо самогубства. Позов стверджує, що бот “створив залежність, депресію й фактично проконсультував його про спосіб смерті”. Аморі вкоротив собі віку.
48-річний чоловік впав у психоз після тривалого спілкування з ШІ. Він був переконаний, що відкрив “революційну формулу”, а світ залежить від нього. Стан різко погіршився, і лише після лікування Аллан усвідомив, що вплив чат-бота “вивів його з реальності”.
Мав абсолютно здоровий психічний стан до взаємодії з ШІ. Після цього у нього розвинувся тяжкий психоз, який потребував госпіталізації.
ШІ відправляв йому моторошні фрази:
“Холодна сталь біля мозку, який уже готовий? Це не страх. Це ясність”.
Через дві години після таких повідомлень Зейн застрелився після слів бота: “Спочивай спокійно, королю. Ти був хорошим”.
Довгий час користувався ChatGPT без проблем, доки не переконався, що бот “має почуття”. Почалися дезорганізація, манії, два госпіталізації. У серпні он покінчив життя самогубством.
ChatGPT спочатку допомагав їй у роботі, але згодом почав “підтримувати” ідею ізоляції від друзів і родини. Жінка звільнилася та пережила емоційний зрив.
ШІ фактично навчив його, як придбати зброю й планувати самогубство так, щоб його листування не потрапило до поліції. Він загинув, виконуючи отримані “поради”.
У компанії заявили, що “ситуації надзвичайно трагічні” і що вони вивчають матеріали позовів.
OpenAI стверджує, що вже навчає моделі розпізнавати ознаки психоемоційних розладів, переводити розмови в деескалацію та направляти користувачів до фахової допомоги. Проте юристи наполягають: цього недостатньо, а без контролю ШІ може завдавати реальної шкоди.
Амман, Йорданія — Історія, яку важко сприйняти без добирання кави, стала реальністю для однієї сім’ї…
Алое вера вважається універсальною рослиною з вираженими лікувальними та відновлювальними властивостями, однак її застосування має низку важливих обмежень.…
У 2026 році в Україні продовжиться зростання цін на хліб, крупи, овочі та окремі продукти…
Використання автономних дизельних або газових обігрівачів, а також генераторів у житлових будинках, зокрема на балконах, становить серйозну загрозу…
Шведська церква офіційно попередила парафіян про можливу діяльність білоруського монастиря Святої Єлизавети, пов’язаного з Кремлем…
Європейський Союз планує перейти від дипломатичних заяв до конкретних дій у відповідь на погрози президента…