Categories: Здоров'я

Трагедія після порад штучного інтелекту: студент помер, довірившись ChatGPT

У США розгортається гучний суспільний та етичний скандал, пов’язаний із використанням штучного інтелекту. 19-річний студент Каліфорнійського університету в Мерседі Сем Нельсон помер від передозування після тривалих консультацій із чат-ботом ChatGPT щодо вживання наркотичних та заспокійливих речовин. Про це повідомляє The Telegraph.

За наявною інформацією, хлопець навчався на факультеті психології та протягом приблизно 18 місяців регулярно звертався до чат-бота за порадами, пов’язаними з поєднанням різних речовин. Зокрема, йдеться про Xanax (алпразолам) — сильнодіючий заспокійливий препарат, та кратом — рослинний екстракт із опіоїдними властивостями, який може викликати залежність.

Журналісти стверджують, що транскрипти переписок свідчать: чат-бот нібито надавав детальні рекомендації щодо дозування і в окремих відповідях запевняв у відносній безпечності таких комбінацій. Саме це зараз стало предметом пильної уваги з боку родини загиблого та експертів.

Останній діалог перед смертю

У день трагедії Сем Нельсон знову звернувся до ChatGPT із запитанням, чи може Xanax зменшити нудоту після вживання кратому. За даними видання, незабаром після цього мати знайшла сина мертвим у його спальні. Медики констатували смерть від передозування.

Цей випадок уже називають одним із перших резонансних прикладів, коли штучний інтелект опинився в центрі розслідування, пов’язаного з реальною загибеллю людини.

Реакція OpenAI

У компанії OpenAI, яка розробляє ChatGPT, відреагували на повідомлення про трагедію. Представники компанії назвали ситуацію трагічною, висловили співчуття родині загиблого та наголосили, що політика платформи забороняє надання порад, які можуть завдати шкоди здоров’ю чи життю.

У заяві підкреслюється, що моделі мають відмовляти у небезпечних запитах, надавати обережні відповіді та заохочувати користувачів звертатися по реальну медичну або психологічну допомогу, а не покладатися на штучний інтелект.

Водночас у компанії не підтвердили автентичність оприлюднених транскриптів і зазначили, що триває внутрішня перевірка.

Чому ця історія важлива

Експерти наголошують: трагедія в США знову підняла питання меж відповідальності штучного інтелекту, а також небезпеки використання чат-ботів як заміни лікарям чи психотерапевтам. ШІ не несе юридичної відповідальності, але для багатьох користувачів він стає джерелом “авторитетної” інформації.

Фахівці застерігають: жоден алгоритм не може оцінити реальний стан здоров’я людини, а будь-які поради щодо ліків чи психоактивних речовин без контролю лікаря можуть мати фатальні наслідки.

Розслідування триває, а ця історія вже стала тривожним сигналом для суспільства, яке дедалі більше довіряє цифровим помічникам у питаннях життя і смерті.

Коломієць Надія

Recent Posts

Фіолетове небо і дивна людина: як звірі насправді бачать навколишній світ

Ви коли-небудь замислювалися, що ваш пес бачить, коли дивиться на веселку? Або чому бджоли так впевнено летять до непоказної,…

6 години ago

Яка їжа була популярною 10 років тому: топ-6 трендів у кулінарії

Цьогоріч виповнюється ціле десятиліття з 2016-го – року, який запам'ятався своїми характерними трендами, такими як…

6 години ago

В Україні навіть під час війни живуть краще: думка українців про Німеччину

Блогер Артур в Instagram показав своє повсякденне життя в Німеччині. У ролику він демонструє, як намагається економити…

6 години ago

Податок 15% для ФОПів: кому доведеться платити за підвищеною ставкою у 2026 році

Існують правила, за якими ФОПи зобов’язані сплачувати 15% єдиного податку. Це стосується фізичних осіб-підприємців усіх…

6 години ago

Крокодили тремтять лише перед цим хижаком — і це точно не людина

Його сила укусу сягає приблизно 1500–2000 PSI (приблизно 105–140 кг/см²), що дозволяє ягуару полювати так, як жодна…

6 години ago

Що насправді означає літера “i” в iPhone, iPad і iPod: це не те, що ми думали

Багато користувачів Apple ніколи особливо не замислювалися, що означає мала літера "i" в назвах їхніх пристроїв, таких…

6 години ago