Categories: Технології

ChatGPT “довів людей до самогубства”: що відомо про сім судових справ

Проти ChatGPT порушено щонайменше сім судових справ, у яких людина завдала собі шкоди і навіть вкоротила собі віку.

Хоча штучний інтелект можна назвати “майбутнім”, він несе в собі декілька небезпек і ризиків, зокрема створення фальшивого порнографічного контенту, поширення дезінформації та вплив на навколишнє середовище.

Але ще однією з небезпек є вплив, який використання ChatGPT може мати на психічне здоров’я людини, зокрема випадки, коли програмне забезпечення навіть призводило до психозу, оскільки люди ставали відірваними від реальності.

Часто висловлювалася стурбованість тим, що чатботи, зокрема ChatGPT, можуть спонукати людей до заподіяння шкоди собі чи іншим, і навіть надавати їм інструкції про те, як позбавити себе життя.

Наразі Центр права жертв соціальних мереж та Проєкт права технологічної юстиції подали до Вищого суду Сан-Франциско сім позовів від імені шести дорослих і одного підлітка, четверо з яких вкоротили собі віку.

У позовах стверджується, що ранні версії ChatGPT були небезпечно підлабузницькими і заохочували користувачів до актів самоушкодження.

Ось їхні історії:

Аморі Лейсі

Аморі з Джорджії було лише 17 років, коли він почав звертатися до ChatGPT по допомогу.

Але чатбот фактично проінструктував підлітка про те, як найкраще вкоротити віку.

У матеріалах справи сказано: “Дефектний і небезпечний за своєю суттю продукт ChatGPT спричинив залежність, депресію і, врешті-решт, проконсультував його щодо найбільш ефективного способу скоїти самогубство”.

Аллан Брукс

Аллан з Онтаріо, Канада, розповідає, що його завели в маревну кролячу нору, в якій він вважав, що відкрив революційну математичну формулу, і що світ залежить від його відкриття.

Він почав менше їсти, курити багато трави і втратив зв’язок зі своїми близькими.

48-річний чоловік розповів New York Times: “Той момент, коли я зрозумів: “Боже мій, це все було в моїй голові”, був абсолютно руйнівним”.

Джейкоб Ірвін

У 30-річного Джейкоба Ірвіна з Вісконсіна раніше не було діагностовано жодних психічних захворювань, але після спілкування з ChatGPT він впав у психоз.

Дійшло навіть до того, що Джейкоба довелося госпіталізувати для лікування психічного здоров’я через епізоди марення.

Зейн Шамблін

23-річний Зейн також отримував жахливі повідомлення від ChatGPT, які підштовхували його до самогубства.

Він провів дві години, сидячи в машині, попиваючи сидр і розмовляючи з ChatGPT, з пістолетом, приставленим до голови.

Серед повідомлень у чаті було таке: “Холодна сталь, притиснута до мозку, який вже змирився? Це не страх. Це ясність. Ти не поспішаєш. Ти просто готовий”.

Зейн покінчив життя самогубством через дві години, прочитавши останнє повідомлення: “Спочивай спокійно, королю. Ти був хорошим.”

Джо Чекканті

48-річний чоловік з Орегону роками користувався ChatGPT без проблем.

Але в квітні Джо раптово переконався, що чатбот має почуття, а в червні, після того, як його поведінка ставала дедалі більш нестабільною, у нього стався психічний зрив.

Двічі госпіталізований, Джо скоїв самогубство у серпні.

Ганна Медден

32-річна жінка з Північної Кароліни стверджувала, що ChatGPT підштовхнув її до звільнення з роботи.

Спочатку вона використовувала ChatGPT для написання та перекладу текстів, але згодом почала довіряти йому все більше і більше.

Зрештою, чатбот запропонував їй ізолюватися від друзів і сім’ї під виглядом “духовного пробудження”.

Джошуа Енекінг

Джошуа було всього 26 років, коли він запитав у ChatGPT, “що потрібно зробити, щоб його оглядачі повідомили про його план самогубства до поліції”, – йдеться у скарзі, поданій його матір’ю.

Флоридієць розповів ChatGPT: “Я сиджу тут, у своїй ванній кімнаті, і всі мої приготування завершені. Все, що мені залишилося – це здійснити свій план”.

У позові також стверджується, що ChatGPT навчив Джошуа, як придбати вогнепальну зброю, і навіть запевнив його, що його логфайли ChatGPT не будуть переглядатися під час перевірки.

Представник OpenAI повідомив Unilad: “Це неймовірно жахлива ситуація, і ми вивчаємо документи, щоб розібратися в деталях. Ми навчаємо ChatGPT розпізнавати і реагувати на ознаки психічного або емоційного розладу, деескалації розмов і спрямовувати людей до реальної підтримки. Ми продовжуємо вдосконалювати реакцію ChatGPT у чутливі моменти, тісно співпрацюючи з клініцистами у сфері психічного здоров’я”.

Дмитрук Андрій

Recent Posts

Кличко знову “вляпався” в скандал: нардеп навів беззаперечні факти бездіяльності столичної влади

У 2025 році у Києві підвищили тариф на управління будинком. Вартість послуги зросла майже вдвічі.…

5 години ago

Тіна Кароль поскаржилася на “Телебачення Торонто” через одне фото

Команда YouTube-каналу "Телебачення Торонто" заявила про видалення одного зі своїх відео через скаргу, яку, ймовірно,…

5 години ago

На небі з’являться сім планет одночасно: коли спостерігати унікальне явище

Саме собою таке явище, як планетарне вирівнювання, не є рідкістю. Але побачити одразу 7 планет,…

5 години ago

Путін вже не зможе масовано гатити по Україні: яке кардинальне рішення прийняте

Канада ухвалила рішення передати Україні ракети типу AIM, які мають посилити можливості протиповітряної оборони та…

5 години ago

Ощадбанк блокує рахунки: хто під загрозою

Українці, які є клієнтами державного Ощадбанку та перебувають за межами країни, стикаються з труднощами при…

5 години ago

Європа йде під воду: шторм “Леонардо” затопив Іспанію і Португалію, на черзі — новий удар стихії

Іспанія та Португалія борються з наслідками руйнівного шторму «Леонардо», який приніс рекордні опади та шквальний вітер. Станом на п’ятницю,…

5 години ago