Компанія Google видалила низку медичних оглядів, створених за допомогою генеративного штучного інтелекту, після того, як розслідування The Guardian показало їхню потенційну небезпеку. Деякі з таких зведень з’являлися у верхній частині пошуку та містили оманливі дані про стан здоров’я, пише Guardian.
Компанія раніше заявляла, що її AI Overviews є “корисними” та “надійними”. Водночас розслідування виявило, що в окремих випадках вони могли вводити людей в оману та створювати ризики для пацієнтів.
Один із прикладів стосувався аналізів функції печінки, де Google надав некоректні діапазони “нормальних” показників. Експерти назвали це “небезпечним” і “тривожним”, оскільки люди з серйозними захворюваннями могли помилково вважати себе здоровими.
Як з’ясував Guardian, запит “який нормальний діапазон показників аналізу крові на печінку” повертав набір цифр без належного контексту. При цьому не враховувалися вік, стать, етнічна приналежність чи інші індивідуальні фактори.
Фахівці наголосили, що такі узагальнення можуть суттєво відрізнятися від клінічних норм. Це, своєю чергою, могло призвести до того, що пацієнти не зверталися по подальшу медичну допомогу.
Після публікації розслідування Google видалив AI Overviews для запитів “який нормальний діапазон для аналізів крові на печінку” та “який нормальний діапазон для аналізів функції печінки”. У компанії підтвердили, що вжили заходів, але не коментують окремі випадки.
“Ми не коментуємо окремі видалення в Пошуку. У випадках, коли огляди ШІ не враховують певний контекст, ми працюємо над загальними покращеннями”, — заявив речник Google.
Директорка з комунікацій British Liver Trust Ванесса Хебдітч позитивно оцінила це рішення. Вона зазначила, що “це чудова новина”, і вона рада “видаленню оглядів Google AI у цих випадках”.
Однак Хебдітч наголосила, що проблема не зникла повністю. За її словами, незначні варіації запитів усе ще можуть викликати потенційно оманливі огляди. The Guardian пише, що альтернативні запити на кшталт “діапазон опорних значень LFT” також активували AI Overviews.
“Функціональний тест печінки — це сукупність різних аналізів крові. Розуміння результатів включає набагато більше, ніж просто порівняння набору цифр. Але в оглядах штучного інтелекту список тестів виділено жирним шрифтом, через що читачам дуже легко не помітити, що ці цифри можуть навіть не відповідати їхньому тесту”, — додала Хебдітч.
Google, який контролює близько 91% світового ринку пошукових систем, заявив, що переглядає нові приклади, надані журналістами. У компанії наполягають, що огляди ШІ показуються лише тоді, коли є “висока впевненість” у якості відповіді.
The Guardian також звернула увагу на інші ШІ-зведення Google щодо раку та психічного здоров’я. Експерти схарактеризували частину цієї інформації як “абсолютно неправильну” та “дійсно небезпечну”.
У відповідь Google заявив, що ці огляди містять посилання на авторитетні джерела та заклики звертатися до фахівців. За словами речника, внутрішня команда клініцистів не виявила в багатьох із них фактичних помилок.
Старший редактор техносайту Futurism Віктор Тангерманн зазначив, що результати розслідування показали потребу серйозного доопрацювання інструменту. За його словами, компанія має переконатися, що її ШІ “не поширює небезпечну дезінформацію щодо здоров’я”.
ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».
