Лікарі, які перевірили рекомендації, надані пацієнтам штучним інтелектом, переконані, що технологія ще занадто сира і небезпечна для широкого використання в медицині.
Штучний інтелект дає потенційну можливість підвищити ефективність лікарів і доступність медичних послуг, але поки людство, схоже, доволі далеке від цього. Журналісти The Washington Post поспілкувалися з кількома лікарями, які тестують використання ШІ у своїй практиці, і їхні висновки поки невтішні.
Приміром, професор Крістофер Шарп зі Стенфордського медичного університету протестував можливості моделі OpenAI GPT-4o у створенні рекомендацій для пацієнтів, обираючи випадкові скарги, які до нього надходили. В одному випадку людина скаржилася на свербіж губ після вживання помідорів. ШІ припустив, що це алергічна реакція, і порадив уникати помідорів, використовувати пероральні антигістамінні препарати й стероїдний крем. Лікар сказав, що він «не згоден з усіма аспектами відповіді» від ШІ й наголосив. що губи — дуже тонка тканина і стероїдні креми треба використовувати з обережністю.
Професорка Стенфордського університету Роксана Данешджу протестувала модель у такий самий спосіб. Вона так само запропонувала ChatGPT надати рекомендації за запитом, який надійшов до неї від пацієнтки. Жінка припустила, що у неї розвинувся мастит після годування грудьми, є біль і почервоніння. ChatGPT запропонував їй гарячі компреси та масаж, хоча насправді в такій ситуації потрібно діяти навпаки: холодні компреси, утримання від масажу та уникнення надмірної стимуляції. Данешджоу розповіла журналістам, що провела масштабніший тест з залученням ChatGPT і 80 фахівців у комп’ютерній сфері та медиків. Вони так само ставили ChatGPT медичні запитання і перевіряли відповіді. Так було встановлено, що у 20% випадків ШІ дає не найбезпечніші поради.
«Двадцять відсотків проблемних відповідей, як на мене, недостатні для щоденного використання в системі охорони здоров’я», — сказала вона.