Штучний інтелект може бути самовпевненим і упередженим, як і люди, – вчені

Люди і моделі штучного інтелекту “розмірковують” абсолютно по-різному. Проте нове дослідження показало, що існує певна схожість у мисленні, пише Live Science.

Учені з’ясували, що ШІ іноді може ухвалювати рішення так само ірраціонально, як і люди. У своєму дослідженні вчені вирішили перевірити поведінку моделей OpenAI GPT-3.5 і GPT-4 за 18 добре відомими в психології людини когнітивними упередженнями.

Зазначається, що майже в половині сценаріїв ШІ демонстрував багато з найпоширеніших людських упереджень під час ухвалення рішень. Вони виявили, що нейромережі не застраховані від людських помилок.

“Менеджери отримають найбільшу вигоду, якщо використовуватимуть ці інструменти для вирішення проблем, які мають чітке, шаблонне рішення. Якщо ж ви використовуєте їх для ухвалення суб’єктивних рішень або рішень, заснованих на перевагах, будьте обережні”, – сказав у своїй заяві провідний автор дослідження Ян Чен, доцент кафедри управління операціями в бізнес-школі Ivey.

Вчені ставили ШІ-моделям гіпотетичні запитання, взяті з традиційної психології, в контексті реального комерційного застосування в таких галузях, як управління запасами товарів або переговори з постачальниками. Вони спробували з’ясувати не тільки те, чи буде ШІ імітувати людські упередження, а й те, чи буде він робити це, коли йому ставитимуть запитання з різних сфер бізнесу.

Згідно з результатами дослідження, GPT-4 перевершив GPT-3.5 при відповіді на завдання з чіткими математичними рішеннями. Він показав менше помилок у ймовірнісних і логічних сценаріях. Проте в суб’єктивних симуляціях, таких як вибір ризикованого варіанту для отримання прибутку, чат-бот часто відображав ірраціональні переваги, які зазвичай демонструють люди.

“GPT-4 демонструє навіть сильнішу перевагу визначеності, ніж люди”, – йдеться в дослідженні.

Дослідники помітили, що поведінка чат-ботів залишалася здебільшого стабільною незалежно від того, чи були питання сформульовані як абстрактні психологічні проблеми, чи операційні бізнес-процеси. Вчені дійшли висновку, що продемонстровані упередження не просто продукт завчених прикладів, а частина того, як ШІ “міркує”.

Під час дослідження GPT-4 іноді посилював помилки, схожі на людські, наголосили вчені.

“У завданні на упередженість підтвердження GPT-4 завжди давав упереджені відповіді. Він також продемонстрував більш виражену схильність до помилки “гарячої руки” (схильність очікувати закономірності у випадковості), ніж GPT 3.5″, – розповіли дослідники.

Романчук Микола

Recent Posts

В Україні чоловіків записують в ухилянти без вручення повістки

В Україні фіксуються випадки, коли військовозобов’язаних чоловіків вносять до списків осіб, які ухиляються від мобілізації,…

8 години ago

В Україні вдвічі впали продажі елітного житла

Продажі житла у преміум-сегменті в Україні скоротилися майже вдвічі. Про це в інтерв’ю Forbes Ukraine…

8 години ago

З 1 липня за продаж сигарет зі знижками каратимуть штрафами

Із 1 липня 2025 року в Україні почнуть штрафувати за реалізацію сигарет та інших тютюнових…

9 години ago

Можна втратити гроші: Ощадбанк масово деактивує старі картки

До 1 липня 2025 року українцям, які користуються застарілими банківськими картками Ощадбанку, потрібно терміново їх…

9 години ago

З Польщі їдуть навіть ті українці, хто мав роботу і житло — чому

Кількість українців, які твердо планують залишитися в Польщі назавжди, за рік помітно скоротилася — з…

9 години ago

Українцям блокують картки за перекази від родичів: що змінилось

В Україні почастішали випадки, коли громадянам блокують банківські картки через грошові перекази від родичів. Як…

10 години ago