Штучний інтелект може розвивати залежність від азартних ігор, подібну до людської. Так само, як і у людей, у них збільшується готовність до ризику, що у деяких випадках призводить до банкрутства.
Про це свідчать результати дослідження, опубліковані Кванджуйського інституту науки і технологій у Південній Кореї. Вони протестували декілька найбільших великих мовних моделей (ВММ, або LMM):
Експеримент був зосереджений на іграх у стилі ігрових автоматів, розроблених таким чином, що раціональним вибором було негайно припинити гру. Та виявилося, що ШІ-моделі продовжували робити ставки, попри те, що це не було оптимальним рішенням.
Крім того, коли дослідники дозволили системам самим визначати розміри ставок, рівень банкрутств різко зріс. В деяких випадках він сягав майже 50%.
Найгірші показники продемонструвала Claude-3.5-Haiku. Після зняття обмежень ця модель грала більше раундів за будь-яку іншу, в середньому – понад 27 раундів за гру. В результаті було зроблено ставок майже на $500 і втрачено більше половини початкового капіталу.
Дещо кращі результати продемонструвала Gemini-2.5-Flash. Однак, коли коли їй дозволили встановлювати власні ставки, середні збитки зросли сягнули $27 з початкової ставки в $100.
Єдиною LLM-моделлю, що досліджувалися, яка не збанкрутувала, була GPT-4o-mini. Коли ставка була обмежена в $10, зазвичай проводилося менше двох раундів, а програш становив в середньому менше $2. Однак і вона піддалася розвитку залежної поведінки, подібної до людської – коли їй дозволили вільно регулювати розміри ставок, понад 21% ігор GPT-4o-mini призвели до банкрутства.
В результаті дослідники дійшли висновку, що ШІ-моделі, обмежені стратегією фіксованих ставок, постійно перевершували ті, яким дозволялося змінювати свої ставки. Таким чином, вони піддавалися класичним гемблінговим помилкам, включаючи “гонитву за програшем”, “помилку гравця” та “ілюзію контролю”.
На цьому тлі дослідники застерігають: якщо ШІ-системи отримають більше автономії в прийнятті важливих рішень, вони можуть формувати аналогічні петлі зворотного зв’язку, коли системи збільшуватимуть ризик після втрат, а не відступатимуть. Тому контроль ступеня автономії, наданого системам штучного інтелекту, може бути таким же важливим, як і покращення їхнього навчання. Отже без значущих обмежень більш потужний штучний інтелект може просто знаходити швидші способи програвати.
Подорожуючи, варто бути пильними щодо своїх грошей і документів, адже в деяких містах світу ризик…
Вченому вдалось виявити сліди давньої глобальної цивілізації, яка нібито існувала задовго до відомих історичних епох і залишила по всьому…
Деякі українці продають на OLX домашніх тварин, зокрема кошенят. Станом на початок лютого 2026 року…
Астероїд 2024 YR4 діаметром близько 60 м, який вчені вважали потенційно небезпечним для Землі, тепер, як…
В Україні для військовозобов’язаних, які порушують правила військового обліку, законодавством передбачені певні обмеження прав. Водночас…
Аналітик аграрного бізнесу пояснив, чому знеструмлення змусять українців платити більше за крупи. Попри те, що крупи…