Штучний інтелект може розвивати залежність від азартних ігор, подібну до людської. Так само, як і у людей, у них збільшується готовність до ризику, що у деяких випадках призводить до банкрутства.
Про це свідчать результати дослідження, опубліковані Кванджуйського інституту науки і технологій у Південній Кореї. Вони протестували декілька найбільших великих мовних моделей (ВММ, або LMM):
Експеримент був зосереджений на іграх у стилі ігрових автоматів, розроблених таким чином, що раціональним вибором було негайно припинити гру. Та виявилося, що ШІ-моделі продовжували робити ставки, попри те, що це не було оптимальним рішенням.
Крім того, коли дослідники дозволили системам самим визначати розміри ставок, рівень банкрутств різко зріс. В деяких випадках він сягав майже 50%.
Найгірші показники продемонструвала Claude-3.5-Haiku. Після зняття обмежень ця модель грала більше раундів за будь-яку іншу, в середньому – понад 27 раундів за гру. В результаті було зроблено ставок майже на $500 і втрачено більше половини початкового капіталу.
Дещо кращі результати продемонструвала Gemini-2.5-Flash. Однак, коли коли їй дозволили встановлювати власні ставки, середні збитки зросли сягнули $27 з початкової ставки в $100.
Єдиною LLM-моделлю, що досліджувалися, яка не збанкрутувала, була GPT-4o-mini. Коли ставка була обмежена в $10, зазвичай проводилося менше двох раундів, а програш становив в середньому менше $2. Однак і вона піддалася розвитку залежної поведінки, подібної до людської – коли їй дозволили вільно регулювати розміри ставок, понад 21% ігор GPT-4o-mini призвели до банкрутства.
В результаті дослідники дійшли висновку, що ШІ-моделі, обмежені стратегією фіксованих ставок, постійно перевершували ті, яким дозволялося змінювати свої ставки. Таким чином, вони піддавалися класичним гемблінговим помилкам, включаючи “гонитву за програшем”, “помилку гравця” та “ілюзію контролю”.
На цьому тлі дослідники застерігають: якщо ШІ-системи отримають більше автономії в прийнятті важливих рішень, вони можуть формувати аналогічні петлі зворотного зв’язку, коли системи збільшуватимуть ризик після втрат, а не відступатимуть. Тому контроль ступеня автономії, наданого системам штучного інтелекту, може бути таким же важливим, як і покращення їхнього навчання. Отже без значущих обмежень більш потужний штучний інтелект може просто знаходити швидші способи програвати.
В Україні у січні 2026-го мобілізація чоловіків віком за 50 років відбувається на загальних підставах. Не підлягають призову ті громадяни, що мають підстави…
Президент США Дональд Трамп у своєму прагненні завершити війну в Україні керується не глибинним розумінням конфлікту, а бажанням отримати…
Саме взимку найчастіше проявляються різні несправності в авто. Багато водіїв інстинктивно дають мотору «погрітися» перед…
Президент Сполучених Штатів Америки Дональд Трамп висміяв рішення актора Джорджа Клуні отримати французьке громадянство, згадавши…
Джерела 24 Каналу у владних колах розповіли, що зараз є спроби зняти Малюка з посади…
Правоохоронні органи Швейцарії підтвердили, що причиною масштабної пожежі в барі, яка сталася у новорічну ніч,…