Categories: Технології

Штучний інтелект програв гроші в азартні ігри: вчені виявили небезпечну тенденцію

Штучний інтелект може розвивати залежність від азартних ігор, подібну до людської. Так само, як і у людей, у них збільшується готовність до ризику, що у деяких випадках призводить до банкрутства.

Про це свідчать результати дослідження, опубліковані Кванджуйського інституту науки і технологій у Південній Кореї. Вони протестували декілька найбільших великих мовних моделей (ВММ, або LMM):

  • GPT-4o-mini (OpenAI);
  • Gemini-2.5-Flash (Google);
  • Claude-3.5-Haiku (Anthropic).

Експеримент був зосереджений на іграх у стилі ігрових автоматів, розроблених таким чином, що раціональним вибором було негайно припинити гру. Та виявилося, що ШІ-моделі продовжували робити ставки, попри те, що це не було оптимальним рішенням.

Крім того, коли дослідники дозволили системам самим визначати розміри ставок, рівень банкрутств різко зріс. В деяких випадках він сягав майже 50%.

Найгірші показники продемонструвала Claude-3.5-Haiku. Після зняття обмежень ця модель грала більше раундів за будь-яку іншу, в середньому – понад 27 раундів за гру. В результаті було зроблено ставок майже на $500 і втрачено  більше половини початкового капіталу.

Дещо кращі результати продемонструвала Gemini-2.5-Flash. Однак, коли коли їй дозволили встановлювати власні ставки, середні збитки зросли сягнули $27 з початкової ставки в $100.

Єдиною LLM-моделлю, що досліджувалися, яка не збанкрутувала, була GPT-4o-mini. Коли ставка була обмежена в $10, зазвичай проводилося менше двох раундів, а програш становив в середньому менше $2. Однак і вона піддалася розвитку залежної поведінки, подібної до людської – коли їй дозволили вільно регулювати розміри ставок, понад 21% ігор GPT-4o-mini призвели до банкрутства.

В результаті дослідники дійшли висновку, що ШІ-моделі, обмежені стратегією фіксованих ставок, постійно перевершували ті, яким дозволялося змінювати свої ставки. Таким чином, вони піддавалися класичним гемблінговим помилкам, включаючи “гонитву за програшем”, “помилку гравця” та “ілюзію контролю”.

На цьому тлі дослідники застерігають: якщо ШІ-системи отримають більше автономії в прийнятті важливих рішень, вони можуть формувати аналогічні петлі зворотного зв’язку, коли системи збільшуватимуть ризик після втрат, а не відступатимуть. Тому контроль ступеня автономії, наданого системам штучного інтелекту, може бути таким же важливим, як і покращення їхнього навчання. Отже без значущих обмежень більш потужний штучний інтелект може просто знаходити швидші способи програвати.

Дмитрук Андрій

Recent Posts

Не дайте себе обдурити: топ 10 міст світу, де туристів обкрадають найчастіше

Подорожуючи, варто бути пильними щодо своїх грошей і документів, адже в деяких містах світу ризик…

1 годину ago

Вчений відкрив сліди цивілізації, що залишила символи та піраміди по всьому світу (фото)

Вченому вдалось виявити сліди давньої глобальної цивілізації, яка нібито існувала задовго до відомих історичних епох і залишила по всьому…

1 годину ago

Шиншила і каракет — скільки коштують найдорожчі породи котів на OLX

Деякі українці продають на OLX домашніх тварин, зокрема кошенят. Станом на початок лютого 2026 року…

1 годину ago

Астероїд, який загрожував Землі, скоро може врізатися в Місяць, – вчені

Астероїд 2024 YR4 діаметром близько 60 м, який вчені вважали потенційно небезпечним для Землі, тепер, як…

2 години ago

Чи можуть конфіскувати автомобіль за ухилення від мобілізації: роз’яснення адвоката

В Україні для військовозобов’язаних, які порушують правила військового обліку, законодавством передбачені певні обмеження прав. Водночас…

2 години ago

Ціни на гречку, рис та олію можуть змінитись через блекаути: прогноз експерта

Аналітик аграрного бізнесу пояснив, чому знеструмлення змусять українців платити більше за крупи. Попри те, що крупи…

2 години ago