Categories: Технології

Штучний інтелект може бути самовпевненим і упередженим, як і люди, – вчені

Люди і моделі штучного інтелекту “розмірковують” абсолютно по-різному. Проте нове дослідження показало, що існує певна схожість у мисленні, пише Live Science.

Учені з’ясували, що ШІ іноді може ухвалювати рішення так само ірраціонально, як і люди. У своєму дослідженні вчені вирішили перевірити поведінку моделей OpenAI GPT-3.5 і GPT-4 за 18 добре відомими в психології людини когнітивними упередженнями.

Зазначається, що майже в половині сценаріїв ШІ демонстрував багато з найпоширеніших людських упереджень під час ухвалення рішень. Вони виявили, що нейромережі не застраховані від людських помилок.

“Менеджери отримають найбільшу вигоду, якщо використовуватимуть ці інструменти для вирішення проблем, які мають чітке, шаблонне рішення. Якщо ж ви використовуєте їх для ухвалення суб’єктивних рішень або рішень, заснованих на перевагах, будьте обережні”, – сказав у своїй заяві провідний автор дослідження Ян Чен, доцент кафедри управління операціями в бізнес-школі Ivey.

Вчені ставили ШІ-моделям гіпотетичні запитання, взяті з традиційної психології, в контексті реального комерційного застосування в таких галузях, як управління запасами товарів або переговори з постачальниками. Вони спробували з’ясувати не тільки те, чи буде ШІ імітувати людські упередження, а й те, чи буде він робити це, коли йому ставитимуть запитання з різних сфер бізнесу.

Згідно з результатами дослідження, GPT-4 перевершив GPT-3.5 при відповіді на завдання з чіткими математичними рішеннями. Він показав менше помилок у ймовірнісних і логічних сценаріях. Проте в суб’єктивних симуляціях, таких як вибір ризикованого варіанту для отримання прибутку, чат-бот часто відображав ірраціональні переваги, які зазвичай демонструють люди.

“GPT-4 демонструє навіть сильнішу перевагу визначеності, ніж люди”, – йдеться в дослідженні.

Дослідники помітили, що поведінка чат-ботів залишалася здебільшого стабільною незалежно від того, чи були питання сформульовані як абстрактні психологічні проблеми, чи операційні бізнес-процеси. Вчені дійшли висновку, що продемонстровані упередження не просто продукт завчених прикладів, а частина того, як ШІ “міркує”.

Під час дослідження GPT-4 іноді посилював помилки, схожі на людські, наголосили вчені.

“У завданні на упередженість підтвердження GPT-4 завжди давав упереджені відповіді. Він також продемонстрував більш виражену схильність до помилки “гарячої руки” (схильність очікувати закономірності у випадковості), ніж GPT 3.5″, – розповіли дослідники.

Романчук Микола

Recent Posts

Чому долар залишиться №1: пояснення очільниці МВФ

Долар США найближчим часом не втратить свого провідного значення у світовій фінансовій системі, вважає керівництво…

3 хвилини ago

Як обрати смартфон, щоб він служив мінімум 3 роки: поради для розумної покупки

Смартфон — це не просто засіб зв’язку, а щоденний інструмент для роботи, навчання, розваг і…

16 хвилин ago

Список «критичної інфраструктури» планують скоротити: що зміниться

Український уряд переглядає список об'єктів критичної інфраструктури, щоб збільшити ліміти електроенергії для побутових споживачів. Про…

27 хвилин ago

Що допомагає виглядати стильно щодня: прості правила сучасного образу

Стиль — це не про дорогу одежу чи сліпе наслідування трендів. Насправді виглядати стильно щодня…

37 хвилин ago

Кінець епохи Visa та Mastercard: Європа готує потужний удар по американських гігантах

Європейський Союз офіційно оголосив курс на фінансову незалежність від США. Брюссель серйозно занепокоєний тим, що…

50 хвилин ago

Найкрасивіші пляжі Європи для літнього відпочинку: куди поїхати цього літа

Літо — час сонця, тепла і морського відпочинку, а Європа пропонує безліч варіантів для пляжного…

54 хвилини ago