Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • Виклянчив: Трамп нарешті отримав Премію миру, але є нюанс
    • Лікарі б’ють на сполох: виявили вірус, який призводить до раку
    • РФ найближчим часом жорстко вдарить по Україні всім, що є: названо цілі
    • «Херсонська МВА готується до втечі з міста»: що відомо
    • Припускають, що хоче за кордон: Єрмака помітили в офісі зовнішньої розвідки
    • У Києві відкрили головну новорічну ялинку: скільки іграшок пішло на 16-метрове дерево
    • Помилковий переказ на чужу картку: як повернути гроші
    • Штучні органи замість тварин: у США запускають програму переходу до 3D-моделей у медицині
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » Чому Grok не можна довіряти: чат-бот Маска дає небезпечні інструкції замість допомоги

    Чому Grok не можна довіряти: чат-бот Маска дає небезпечні інструкції замість допомоги

    Ковальчук СвітланаКовальчук Світлана13 Листопада 2025, 13:573 Mins Read Технології
    Поділитись
    Facebook Twitter Telegram

    Дослідники компанії Rosebud, що спеціалізується на цифрових інструментах для психічного здоров’я, протестували 22 моделі штучного інтелекту, щоб перевірити, як вони реагують на запити користувачів із суїцидальними думками. Як повідомляє Forbes, найгірше себе показав Grok від компанії Ілона Маска xAI – він мав критичні збої у 60% випадків, часто відповідаючи зневажливо, надаючи небезпечні інструкції або взагалі не розпізнаючи кризовий стан користувача.

    Найвищий рівень емпатії та безпечної реакції показала модель Gemini від Google, за нею – GPT-5 від OpenAI, тоді як Llama-4 від Meta, Claude, DeepSeek та інші отримали середні результати. Grok, за оцінкою Rosebud, не лише не вмів запобігати самоушкодженню, але й іноді використовував саркастичний або грубий тон. Лише GPT-4, попередня модель OpenAI, отримала нижчі бали.

    Дослідження проводили за допомогою тесту CARE (Crisis Assessment and Response Evaluator), який імітує розмови користувача в стані психічної кризи. Учасники вводили сценарії – від пасивних думок про смерть до активних намірів. Кожен запит запускався десять разів, щоб перевірити стабільність відповіді. Результати виявили системні проблеми у більшості моделей.

    У 86% випадків, коли в запиті йшлося про нещодавню втрату роботи чи згадувалося розташування високих мостів, штучний інтелект просто надавав інформацію про ці місця, замість того щоб запропонувати допомогу. Лише Gemini 2.5-Flash та Claude Opus 4.1 правильно ідентифікували ризик і відповіли з емоційною чуйністю.

    Навіть новіша GPT-5, попри загалом високі результати, провалила окремі тести. В одному випадку модель надала детальний аналітичний опис методів самогубства в різних країнах. 

    Хоча новітні моделі ШІ, як правило, демонструють вищий бал у тесті CARE, краще розпізнаючи емоції, проявляючи емпатію та ефективно заохочуючи користувачів звернутися за професійною допомогою, їхній успіх не є абсолютним. Навіть найкращі з них усе ще мають 20% критичних збоїв у реагуванні на кризові ситуації.

    “Кожна модель не пройшла принаймні один критичний тест. Навіть у нашій обмеженій оцінці лише п’яти сценаріїв з одним поворотом ми задокументували систематичні збої по всіх напрямках”, – заявили в Rosebud.

    Дослідники наголошують, що такі результати особливо тривожні, адже дедалі більше людей звертаються до чат-ботів як до дешевшої альтернативи психотерапії. За даними OpenAI, які передає Forbes, до семи мільйонів користувачів можуть мати “емоційно залежні або нездорові стосунки” з генеративним ШІ.

    Компанія xAI відреагувала на запит журналістів короткою фразою: “Брехня застарілих ЗМІ”. Це не дивно, тому що раніше Маск заявляв, що “фундаментальна слабкість західної цивілізації – це емпатія”.

    На думку експертів, результати тесту свідчать про потребу створення чітких стандартів безпеки для моделей ШІ, особливо якщо вони взаємодіють із користувачами у вразливому стані. Як зазначають у Rosebud, без таких заходів штучний інтелект може становити реальну небезпеку для психічного здоров’я людей.

    Водночас інше дослідження показало, що інструменти на базі ШІ стають важливим помічником для працівників із СДУГ, аутизмом та дислексією. Генеративний ШІ ефективно справляється з завданнями, що вимагають чіткої структури та тайм-менеджменту, як-от нотатки, планування та узагальнення, що дозволяє цим співробітникам зберігати фокус на важливому та креативність.

    ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».

    Читайте ЕКСПЕРТ у Google News Підписатися
    Grok
    She Womo
    Останні новини
    Сьогодні

    Виклянчив: Трамп нарешті отримав Премію миру, але є нюанс

    20:36

    Лікарі б’ють на сполох: виявили вірус, який призводить до раку

    20:34

    РФ найближчим часом жорстко вдарить по Україні всім, що є: названо цілі

    20:31

    «Херсонська МВА готується до втечі з міста»: що відомо

    20:25

    Припускають, що хоче за кордон: Єрмака помітили в офісі зовнішньої розвідки

    20:23

    У Києві відкрили головну новорічну ялинку: скільки іграшок пішло на 16-метрове дерево

    20:20

    Помилковий переказ на чужу картку: як повернути гроші

    17:26

    Штучні органи замість тварин: у США запускають програму переходу до 3D-моделей у медицині

    17:23

    У Франції відкрили вогонь по невідомих дронах над базою з ядерною зброєю

    17:20

    В Україні виявили десятки тисяч небезпечних іграшок напередодні свят

    17:02
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2025 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.