Трагедія після порад штучного інтелекту: студент помер, довірившись ChatGPT

У США розгортається гучний суспільний та етичний скандал, пов’язаний із використанням штучного інтелекту. 19-річний студент Каліфорнійського університету в Мерседі Сем Нельсон помер від передозування після тривалих консультацій із чат-ботом ChatGPT щодо вживання наркотичних та заспокійливих речовин. Про це повідомляє The Telegraph.

За наявною інформацією, хлопець навчався на факультеті психології та протягом приблизно 18 місяців регулярно звертався до чат-бота за порадами, пов’язаними з поєднанням різних речовин. Зокрема, йдеться про Xanax (алпразолам) — сильнодіючий заспокійливий препарат, та кратом — рослинний екстракт із опіоїдними властивостями, який може викликати залежність.

Журналісти стверджують, що транскрипти переписок свідчать: чат-бот нібито надавав детальні рекомендації щодо дозування і в окремих відповідях запевняв у відносній безпечності таких комбінацій. Саме це зараз стало предметом пильної уваги з боку родини загиблого та експертів.

Останній діалог перед смертю

У день трагедії Сем Нельсон знову звернувся до ChatGPT із запитанням, чи може Xanax зменшити нудоту після вживання кратому. За даними видання, незабаром після цього мати знайшла сина мертвим у його спальні. Медики констатували смерть від передозування.

Цей випадок уже називають одним із перших резонансних прикладів, коли штучний інтелект опинився в центрі розслідування, пов’язаного з реальною загибеллю людини.

Реакція OpenAI

У компанії OpenAI, яка розробляє ChatGPT, відреагували на повідомлення про трагедію. Представники компанії назвали ситуацію трагічною, висловили співчуття родині загиблого та наголосили, що політика платформи забороняє надання порад, які можуть завдати шкоди здоров’ю чи життю.

У заяві підкреслюється, що моделі мають відмовляти у небезпечних запитах, надавати обережні відповіді та заохочувати користувачів звертатися по реальну медичну або психологічну допомогу, а не покладатися на штучний інтелект.

Водночас у компанії не підтвердили автентичність оприлюднених транскриптів і зазначили, що триває внутрішня перевірка.

Чому ця історія важлива

Експерти наголошують: трагедія в США знову підняла питання меж відповідальності штучного інтелекту, а також небезпеки використання чат-ботів як заміни лікарям чи психотерапевтам. ШІ не несе юридичної відповідальності, але для багатьох користувачів він стає джерелом “авторитетної” інформації.

Фахівці застерігають: жоден алгоритм не може оцінити реальний стан здоров’я людини, а будь-які поради щодо ліків чи психоактивних речовин без контролю лікаря можуть мати фатальні наслідки.

Розслідування триває, а ця історія вже стала тривожним сигналом для суспільства, яке дедалі більше довіряє цифровим помічникам у питаннях життя і смерті.

Коломієць Надія

Recent Posts

Скарби під ногами: у Франції випадково знайшли загублений середньовічний замок

Археологи виявили добре збережений 640-річний замок безпосередньо під внутрішнім двором готелю Lagorce у французькому місті Ванн.…

3 хвилини ago

Українець Маліновський забив гол у третьому поспіль матчі в Італії

Футболіст збірної України Руслан Маліновський забив гол за "Дженоа" у 24-му турі чемпіонату Італії у…

5 хвилин ago

В українців можуть забрати бронь від мобілізації через борги: що відомо

Під час воєнного стану в Україні громадяни, які утримують трьох і більше дітей віком до…

6 хвилин ago

Сухофрукти — чи справді вони корисні та як правильно вибрати продукт

Сухофрукти часто сприймають як ідеальну здорову заміну цукеркам, однак це не зовсім так. Неконтрольоване споживання цього продукту може принести…

9 хвилин ago

Трамп змінив правила експорту зброї США: які наслідки це може мати для України

Президент США Дональд Трамп підписав указ, який кардинально змінює підхід Вашингтона до продажу американського озброєння…

22 хвилини ago

В Європі заявили, що закінчення війни в Україні несе ризики для НАТО

Ідея швидкого припинення вогню в Україні може нести серйозні ризики для безпеки Європи та НАТО.…

55 хвилин ago