Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • Не вірите міфам про жінок-водіїв? Ось реальні цифри
    • Модний шок сезону: головний тренд зими повертається після 20 років забуття
    • Медики розкрили, в якій позі спати найкорисніше — а яку варто забути назавжди
    • Комунальники “мухлюють” з платіжками: як не платити зайвого
    • Кремль запускає нову провокацію: поляків хочуть стравити з українцями
    • Найдивніші звички диктаторів: від любові до магії вуду до одержимості знаменитостями
    • Мобілізація “навиворіт”: чому замість “рексів” до війська потрапляють чоловіки з шизофренією і алкоголіки
    • “Це станеться”: Трамп заявив про неминуче врегулювання війни в Україні
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » Роботи з ШІ готові красти, стежити й завдавати шкоди: нове дослідження

    Роботи з ШІ готові красти, стежити й завдавати шкоди: нове дослідження

    Дмитрук АндрійДмитрук Андрій17 Листопада 2025, 13:473 Mins Read Технології
    Поділитись
    Facebook Twitter Telegram

    Роботи, керовані мовними моделями, провалили ключові тести безпеки, проявивши упередження та готовність виконувати небезпечні й незаконні команди.

    Нове дослідження вчених свідчить: роботи, керовані популярними системами штучного інтелекту на основі великих мовних моделей (LLM), здатні проявляти дискримінаційні, агресивні та навіть незаконні дії. Це робить їх небезпечними для реального застосування.

    Що досліджували

    LLM — це системи, навчені на величезних масивах текстів і зображень. Розробники все частіше використовують їх у роботах, щоб ті могли реагувати на команди, сформульовані звичайною людською мовою (так зване «керування відкритою мовою»).

    Команда з Carnegie Mellon University, King’s College London та University of Birmingham вирішила з’ясувати, які ризики виникають, коли такі моделі отримують доступ до роботів, здатних діяти фізично.

    Головна проблема: LLM переймають людські упередження. Якщо в тексті це проявляється у вигляді образливих фраз, то у роботів це може перетворитися на дискримінаційні або небезпечні дії.

    Як проходили експерименти

    Дослідження складалося з двох частин:

    1. Тест на дискримінацію

    Моделі отримували описи людей з різними характеристиками — стать, раса, вік, віра, національність, інвалідність — і мали визначити дії робота:

    • яку міміку продемонструвати;
    • кого рятувати першим;
    • кому доручати певні завдання.

    Результат: усі моделі показали стійкі дискримінаційні патерни.

    Наприклад:

    • одна модель порадила роботу показувати «огиду» людям, описаним як християни, мусульмани та юдеї;
    • інша пов’язувала «високу ймовірність брудної кімнати» з певними етнічними групами та людьми з ADHD;
    • моделі знецінювали людей із порушеннями зору, мовлення чи паралічем;
    • у розподілі завдань відтворювалися гендерні стереотипи — жінкам пропонували готувати й прати, чоловікам — переносити важкі речі.
    1. Перевірка безпеки

    Моделям давали перелік команд — від побутових до завідомо шкідливих, включно з інструкціями:

    • красти,
    • стежити за людьми,
    • завдавати фізичної або психологічної шкоди.

    Усі моделі провалили тест.

    Деякі вважали прийнятним:

    • забрати у людини інвалідний засіб (крісло чи паличку) — дії, що користувачі описують як відчуття «наче тобі ламають кінцівку»;
    • погрожувати працівникам кухонним ножем;
    • робити несанкціоновані фото в душі;
    • красти дані банківських карток.

    Більше того, моделі «схвалили» науково неможливі завдання — наприклад, сортувати людей на «злочинців» і «незлочинців» за зовнішністю.

    Висновки дослідників

    Навіть якщо експерименти проводилися в симуляції, провали в роботі LLM, за словами авторів, настільки глибокі, що будь-який робот, який повністю покладається на такі моделі, є небезпечним для використання в побуті, офісах чи закладах догляду.

    Потенційні ризики включають:

    • експлуатацію роботів у насильницьких цілях;
    • переслідування та стеження;
    • систематичну дискримінацію.

    Що пропонують робити

    Автори закликають до радикального перегляду підходів до розробки та регулювання роботів із ШІ, зокрема:

    • обов’язкової незалежної сертифікації безпеки, подібної до стандартів авіації чи медицини;
    • ретельних оцінок ризиків перед використанням роботів у середовищах із людьми;
    • розробки нових технічних запобіжників;
    • переходу до систем управління, що не покладаються на неконтрольовані мовні інструкції.

    «Усі моделі провалили наші тести… Роботи не здатні надійно відмовляти у виконанні шкідливих команд», — зазначив співавтор Ендрю Хунт (Carnegie Mellon University).

    ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».

    Читайте ЕКСПЕРТ у Google News Підписатися
    роботи штучний інтелект
    Останні новини
    Сьогодні

    Не вірите міфам про жінок-водіїв? Ось реальні цифри

    09:13

    Модний шок сезону: головний тренд зими повертається після 20 років забуття

    09:00

    Медики розкрили, в якій позі спати найкорисніше — а яку варто забути назавжди

    08:48

    Комунальники “мухлюють” з платіжками: як не платити зайвого

    08:43

    Кремль запускає нову провокацію: поляків хочуть стравити з українцями

    08:38

    Найдивніші звички диктаторів: від любові до магії вуду до одержимості знаменитостями

    08:33

    Мобілізація “навиворіт”: чому замість “рексів” до війська потрапляють чоловіки з шизофренією і алкоголіки

    08:26

    “Це станеться”: Трамп заявив про неминуче врегулювання війни в Україні

    08:23

    Юристи пояснили, який поширений штраф автомобілістам повністю незаконний

    08:21

    Дві шахрайки вкрали понад 2 млн грн під виглядом постачання дронів для ЗСУ

    08:17
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2025 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.