Categories: Здоров'я

Трагедія після порад штучного інтелекту: студент помер, довірившись ChatGPT

У США розгортається гучний суспільний та етичний скандал, пов’язаний із використанням штучного інтелекту. 19-річний студент Каліфорнійського університету в Мерседі Сем Нельсон помер від передозування після тривалих консультацій із чат-ботом ChatGPT щодо вживання наркотичних та заспокійливих речовин. Про це повідомляє The Telegraph.

За наявною інформацією, хлопець навчався на факультеті психології та протягом приблизно 18 місяців регулярно звертався до чат-бота за порадами, пов’язаними з поєднанням різних речовин. Зокрема, йдеться про Xanax (алпразолам) — сильнодіючий заспокійливий препарат, та кратом — рослинний екстракт із опіоїдними властивостями, який може викликати залежність.

Журналісти стверджують, що транскрипти переписок свідчать: чат-бот нібито надавав детальні рекомендації щодо дозування і в окремих відповідях запевняв у відносній безпечності таких комбінацій. Саме це зараз стало предметом пильної уваги з боку родини загиблого та експертів.

Останній діалог перед смертю

У день трагедії Сем Нельсон знову звернувся до ChatGPT із запитанням, чи може Xanax зменшити нудоту після вживання кратому. За даними видання, незабаром після цього мати знайшла сина мертвим у його спальні. Медики констатували смерть від передозування.

Цей випадок уже називають одним із перших резонансних прикладів, коли штучний інтелект опинився в центрі розслідування, пов’язаного з реальною загибеллю людини.

Реакція OpenAI

У компанії OpenAI, яка розробляє ChatGPT, відреагували на повідомлення про трагедію. Представники компанії назвали ситуацію трагічною, висловили співчуття родині загиблого та наголосили, що політика платформи забороняє надання порад, які можуть завдати шкоди здоров’ю чи життю.

У заяві підкреслюється, що моделі мають відмовляти у небезпечних запитах, надавати обережні відповіді та заохочувати користувачів звертатися по реальну медичну або психологічну допомогу, а не покладатися на штучний інтелект.

Водночас у компанії не підтвердили автентичність оприлюднених транскриптів і зазначили, що триває внутрішня перевірка.

Чому ця історія важлива

Експерти наголошують: трагедія в США знову підняла питання меж відповідальності штучного інтелекту, а також небезпеки використання чат-ботів як заміни лікарям чи психотерапевтам. ШІ не несе юридичної відповідальності, але для багатьох користувачів він стає джерелом “авторитетної” інформації.

Фахівці застерігають: жоден алгоритм не може оцінити реальний стан здоров’я людини, а будь-які поради щодо ліків чи психоактивних речовин без контролю лікаря можуть мати фатальні наслідки.

Розслідування триває, а ця історія вже стала тривожним сигналом для суспільства, яке дедалі більше довіряє цифровим помічникам у питаннях життя і смерті.

Коломієць Надія

Recent Posts

Чому хропіння не будить тих, хто хропе: вчені дали відповідь

Багато людей, які ділять ліжко з партнером, що хропе, дивуються, як можна спокійно спати під…

7 години ago

До “кінця світу” залишились лічені дні: вчені вирахували точну дату, але щось пішло не так

Якщо вірити «рівнянню Судного дня», розробленому понад 60 років тому, 2026 рік має стати останнім для людства.…

7 години ago

На Марсі знайшли загадкову діру: як вона може врятувати астронавтів

На Марсі виявили нову загадкову яму, яка може відкрити шлях до підземних просторів, здатних захистити майбутніх дослідників…

7 години ago

NASA вперше в історії достроково повертає екіпаж з МКС через медичні проблеми

NASA ухвалило безпрецедентне рішення достроково завершити місію Crew-11 та повернути на Землю всіх чотирьох астронавтів з медичних причин.…

7 години ago

Мобілізація може стати жорсткішою: “Не вийшов з машини – прострелили коліно”

В Україні дедалі гучніше звучать заяви про необхідність жорсткішої мобілізації, адже війна не залишає простору…

8 години ago

В Україні заборонили найпопулярніше програмне забезпечення для бухгалтерів

Державна служба спеціального зв’язку та захисту інформації України оприлюднила відкритий перелік забороненого до використання програмного…

8 години ago