Одне з цікавих запитань, яке виникло разом із появою широко доступного штучного інтелекту, було, чи може він збожеволіти. Судячи з останніх даних, ChatGPT щонайменше навчився підтримувати і посилювати неадекватність своїх користувачів, доводячи їх навіть до стану психозу.
Повідомлення про це журналісти видання Rolling Stone знайшли на форумах сервісу Reddit. Деякі його автори поділились, що ШІ змусив їхніх близьких скоїти низку тривожних помилок і спонукав їх змішувати зацикленість на духовності з надприродними фантазіями.
Так деякі користувачі після спілкування із ChatGPT почали стверджувати, що вони були обрані для виконання священних місій від імені розумного ШІ або неіснуючої космічної сили. Поведінка чат-бота, яким вони користувались, відбивала їхній хворобливий стан і лише посилювала наявні психічні проблеми. При цьому відбувалось це безконтрольно.
Наприклад, 41-річна мати та співробітниця некомерційної організації розповіла Rolling Stone, що її шлюб раптово закінчився після того, як її чоловік почав брати участь у неврівноважених, змовницьких розмовах з ChatGPT. Згодом ці бесіди переросли для нього у всеохопну одержимість.
Подружжя вирішило розлучитись і після одного із судових засідань з розірвання шлюбу чоловік переповів своїй ексдружині “теорію змови про мило на нашій їжі” та поділився параноїдальним переконаннями про те, що за ним стежать. “Він був схвильований повідомленнями і плакав, коли читав мені їх уголос”, – розповіла жінка журналістам Rolling Stone. За її словами, повідомлення від ChatGPT були просто шаленими і містили велику кількість “духовного жаргону”. Зокрема ШІ називав чоловіка “спіральною зірковою дитиною” та “річковим ходоком”.
Інші користувачі, чиї партнери теж почали поводитись дивно після розмов із ChatGPT, поділились, що вони почали говорити “про світло і темряву і про те, що наближається війна”. Дехто ділився, що отримав від ChatGPT креслення телепорту та деяких інших науково-фантастичних речей, які можна побачити лише у фільмах. Ще один чоловік поділився, що його дружина вирішила стати духовним наставником і почала проводити “дивні читання та сеанси з людьми”, спілкуючись про це із чатботом.
Rolling Stone звернувся до OpenAI по коментар, але не отримав відповіді. Але ця новина з’явилася після того, як компанії довелося скасувати нещодавнє оновлення ChatGPT після того, як користувачі помітили, що воно зробило чат-бота надзвичайно “сервільним” і “надмірно улесливим або приємним”. А це може бути небезпечним для користувачів з нестійкою психікою, які легко піддаються таким маніпуляціям.
Нездорові ідеї, спровоковані ШІ, ймовірно, є результатом того, що “люди з існуючими схильностями” раптово отримали можливість “мати постійно підключеного співрозмовника людського рівня, з яким вони могли б спільно переживати свої маячні ідеї”. Так пояснив Rolling Stone ситуацію співробітник Центру безпеки ШІ Нейт Шарадін.
На певному рівні це основна передумова великої мовної моделі: ви вводите текст, і він повертає статистично правдоподібну відповідь навіть якщо ця відповідь вводить користувача глибше в маячіння або психоз.
“Я шизофренік, хоча і приймаю ліки і стабільний, але мені не подобається в [ChatGPT] те, що якби я впав у психоз, він все одно продовжував би мене підтримувати”, – написав один з користувачів Reddit. Він пояснив, що ШІ насправді не вміє думати і розуміти, що щось іде не так, тому він продовжує підтримувати свого співбесідника. А у випадку з психічно нестабільними людьми це може бути небезпечно.
Чат-боти на основі штучного інтелекту також можуть проводити терапевтичні бесіди. Але без підтримки реального консультанта-людини вони натомість направляють користувачів глибше в нездорові, безглузді історії. “Пояснення мають силу, навіть якщо вони неправильні”, – сказала Rolling Stone психолог і дослідник з Університету Флориди Ерін Вестгейт.