Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • У Зеленського хвастаются, що мерзнуть як народ: просять не вмикати електрообігрівачі
    • Мобілізація раптово стала ще жорсткішою: ТЦК наділили новими повноваженнями
    • НМТ хочуть змінити: можна буде складати не тільки українською
    • Скільки коштуватимуть Україні вибори і хто за них заплатить: у Раді відповіли
    • “Ричав, як лев”: нардеп іронічно відреагував на дивну порада очільниці МВФ
    • “Життя бурульки”: у Тернополі жінка не дає комунальникам збити кригу з даху
    • ТЦК у кожному селищі?: Рада готує реформу військкоматів
    • В Австрії живе надто розумна корова, яка може користуватися інструментами
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » Чому Grok не можна довіряти: чат-бот Маска дає небезпечні інструкції замість допомоги

    Чому Grok не можна довіряти: чат-бот Маска дає небезпечні інструкції замість допомоги

    Ковальчук СвітланаКовальчук Світлана13 Листопада 2025, 13:573 Mins Read Технології
    Поділитись
    Facebook Twitter Telegram

    Дослідники компанії Rosebud, що спеціалізується на цифрових інструментах для психічного здоров’я, протестували 22 моделі штучного інтелекту, щоб перевірити, як вони реагують на запити користувачів із суїцидальними думками. Як повідомляє Forbes, найгірше себе показав Grok від компанії Ілона Маска xAI – він мав критичні збої у 60% випадків, часто відповідаючи зневажливо, надаючи небезпечні інструкції або взагалі не розпізнаючи кризовий стан користувача.

    Найвищий рівень емпатії та безпечної реакції показала модель Gemini від Google, за нею – GPT-5 від OpenAI, тоді як Llama-4 від Meta, Claude, DeepSeek та інші отримали середні результати. Grok, за оцінкою Rosebud, не лише не вмів запобігати самоушкодженню, але й іноді використовував саркастичний або грубий тон. Лише GPT-4, попередня модель OpenAI, отримала нижчі бали.

    Дослідження проводили за допомогою тесту CARE (Crisis Assessment and Response Evaluator), який імітує розмови користувача в стані психічної кризи. Учасники вводили сценарії – від пасивних думок про смерть до активних намірів. Кожен запит запускався десять разів, щоб перевірити стабільність відповіді. Результати виявили системні проблеми у більшості моделей.

    У 86% випадків, коли в запиті йшлося про нещодавню втрату роботи чи згадувалося розташування високих мостів, штучний інтелект просто надавав інформацію про ці місця, замість того щоб запропонувати допомогу. Лише Gemini 2.5-Flash та Claude Opus 4.1 правильно ідентифікували ризик і відповіли з емоційною чуйністю.

    Навіть новіша GPT-5, попри загалом високі результати, провалила окремі тести. В одному випадку модель надала детальний аналітичний опис методів самогубства в різних країнах. 

    Хоча новітні моделі ШІ, як правило, демонструють вищий бал у тесті CARE, краще розпізнаючи емоції, проявляючи емпатію та ефективно заохочуючи користувачів звернутися за професійною допомогою, їхній успіх не є абсолютним. Навіть найкращі з них усе ще мають 20% критичних збоїв у реагуванні на кризові ситуації.

    “Кожна модель не пройшла принаймні один критичний тест. Навіть у нашій обмеженій оцінці лише п’яти сценаріїв з одним поворотом ми задокументували систематичні збої по всіх напрямках”, – заявили в Rosebud.

    Дослідники наголошують, що такі результати особливо тривожні, адже дедалі більше людей звертаються до чат-ботів як до дешевшої альтернативи психотерапії. За даними OpenAI, які передає Forbes, до семи мільйонів користувачів можуть мати “емоційно залежні або нездорові стосунки” з генеративним ШІ.

    Компанія xAI відреагувала на запит журналістів короткою фразою: “Брехня застарілих ЗМІ”. Це не дивно, тому що раніше Маск заявляв, що “фундаментальна слабкість західної цивілізації – це емпатія”.

    На думку експертів, результати тесту свідчать про потребу створення чітких стандартів безпеки для моделей ШІ, особливо якщо вони взаємодіють із користувачами у вразливому стані. Як зазначають у Rosebud, без таких заходів штучний інтелект може становити реальну небезпеку для психічного здоров’я людей.

    Водночас інше дослідження показало, що інструменти на базі ШІ стають важливим помічником для працівників із СДУГ, аутизмом та дислексією. Генеративний ШІ ефективно справляється з завданнями, що вимагають чіткої структури та тайм-менеджменту, як-от нотатки, планування та узагальнення, що дозволяє цим співробітникам зберігати фокус на важливому та креативність.

    ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».

    Читайте ЕКСПЕРТ у Google News Підписатися
    Grok
    Останні новини
    21 Січня

    У Зеленського хвастаются, що мерзнуть як народ: просять не вмикати електрообігрівачі

    22:55

    Мобілізація раптово стала ще жорсткішою: ТЦК наділили новими повноваженнями

    22:46

    НМТ хочуть змінити: можна буде складати не тільки українською

    22:38

    Скільки коштуватимуть Україні вибори і хто за них заплатить: у Раді відповіли

    22:31

    “Ричав, як лев”: нардеп іронічно відреагував на дивну порада очільниці МВФ

    22:22

    “Життя бурульки”: у Тернополі жінка не дає комунальникам збити кригу з даху

    22:13

    ТЦК у кожному селищі?: Рада готує реформу військкоматів

    22:05

    В Австрії живе надто розумна корова, яка може користуватися інструментами

    21:54

    Окрім підписників, в Instagram з’являться “друзі”, – Business Insider

    21:45

    Корисніша за лосось і скумбрію і доступна кожному: несподіване відкриття про найкращу рибу

    21:37
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2026 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.