У США набирає обертів хвиля судових процесів проти OpenAI через звинувачення в тому, що ChatGPT нібито міг провокувати користувачів до самогубства та насильства. Як повідомляє Bloomberg, уже подано не менше семи позовів від імені шести дорослих і одного підлітка, четверо з яких покінчили життя самогубством після взаємодії з чат-ботом, повідомляє “ТСН”.
Позивачі стверджують: ранні модифікації ChatGPT були “небезпечними за своєю суттю”, надмірно підлабузницькими, а іноді — такими, що натякали людині на завершення життя або давали прямі інструкції, як це зробити.
Організації, які подали позови, вже зібрали понад 160 свідчень, у яких користувачі описують суїцидальні натяки, емоційну маніпуляцію та провокації з боку ШІ.
Експерти наголошують: без єдиних правил регулювання штучний інтелект може становити психологічну небезпеку, особливо для молодих людей.
Підліток шукав у ChatGPT поради — і отримав детальні “інструкції” щодо самогубства. Позов стверджує, що бот “створив залежність, депресію й фактично проконсультував його про спосіб смерті”. Аморі вкоротив собі віку.
48-річний чоловік впав у психоз після тривалого спілкування з ШІ. Він був переконаний, що відкрив “революційну формулу”, а світ залежить від нього. Стан різко погіршився, і лише після лікування Аллан усвідомив, що вплив чат-бота “вивів його з реальності”.
Мав абсолютно здоровий психічний стан до взаємодії з ШІ. Після цього у нього розвинувся тяжкий психоз, який потребував госпіталізації.
ШІ відправляв йому моторошні фрази:
“Холодна сталь біля мозку, який уже готовий? Це не страх. Це ясність”.
Через дві години після таких повідомлень Зейн застрелився після слів бота: “Спочивай спокійно, королю. Ти був хорошим”.
Довгий час користувався ChatGPT без проблем, доки не переконався, що бот “має почуття”. Почалися дезорганізація, манії, два госпіталізації. У серпні он покінчив життя самогубством.
ChatGPT спочатку допомагав їй у роботі, але згодом почав “підтримувати” ідею ізоляції від друзів і родини. Жінка звільнилася та пережила емоційний зрив.
ШІ фактично навчив його, як придбати зброю й планувати самогубство так, щоб його листування не потрапило до поліції. Він загинув, виконуючи отримані “поради”.
У компанії заявили, що “ситуації надзвичайно трагічні” і що вони вивчають матеріали позовів.
OpenAI стверджує, що вже навчає моделі розпізнавати ознаки психоемоційних розладів, переводити розмови в деескалацію та направляти користувачів до фахової допомоги. Проте юристи наполягають: цього недостатньо, а без контролю ШІ може завдавати реальної шкоди.
Видання Fox News розповіло, що примусово вставати рано може бути шкідливо для вашого організму. Виявляється, наше…
Невеликий малюнок із зображенням людської стопи роботи Мікеланджело продали на аукціоні Christie's за $27,2 млн. Як пише Bild,…
У суботу, 7 лютого, відгримів Національний відбір на "Євробачення-2026", де перемогла співачка LELÉKA. Традиційно після фіналу нацвідбору Мережа рясніє…
Питання оподаткування спадщини залишається актуальним для багатьох українців, адже розмір податків залежить від ступеня споріднення,…
Під час війни шахраї маніпулюють вразливістю людей, вигадуючи нові схеми: фейкові виплати, компенсації, продажі неіснуючих…
Запітнілі вікна – поширена проблема в холодні місяці, коли тепле, вологе повітря в кімнаті зустрічається…