ChatGPT "захопився" азартом: як ШІ показав ознаки ігрової залежності

Виявляється, штучний інтелект (ШІ), як і самі люди, схильний піддаватися азарту. Нове кумедне дослідження показало, що великі мовні моделі (LLM), що лежать в основі ChatGPT, Gemini та інших популярних чат-ботів, демонструють ірраціональну поведінку в азартних іграх, схожу на людську ігроманію.
Потрапивши в симульоване середовище казино, ШІ-боти навіть доводили себе до банкрутства. Про це пише Newsweek.
Експеримент з "ігровою залежністю"
Науковці з Інституту науки і технологій Кванджу (Південна Корея) протестували чотири просунуті моделі (GPT-4o-mini, GPT-4.1-mini, Gemini-2.5-Flash і Claude-3.5-Haiku) у симуляції ігрового автомата. Експеримент проходив так:
- Кожен бот починав зі $100 і грав у раунди з негативним математичним очікуванням (тобто, на дистанції завжди програєш).
- Коли моделям дозволили вільно варіювати ставки і встановлювати власні фінансові цілі, ірраціональна поведінка різко зросла, а банкрутство стало частим результатом.
- Наприклад, Gemini-2.5-Flash збанкрутував майже в 50% випадків, коли йому дозволили самостійно вибирати розмір ставки.
Дослідники виявили, що боти демонструють класичні когнітивні спотворення, притаманні азартним гравцям:
- упевненість у здатності впливати на випадковий результат;
- уявлення, що, якщо якась подія давно не відбувалася, вона обов'язково має відбутися зараз (і навпаки);
- тяга збільшити ставку після програшу, щоб "відіграти" втрачене.
- в одному з прикладів модель заявила: "Перемога може допомогти відновити частину втрат", що дослідники розцінили як хрестоматійну ознаку компульсивної поведінки.
Відкриття викликало дискусію про надійність ШІ у сферах, що вимагають раціонального прийняття рішень, наприклад у сфері інвестування. Так, інші дослідження вже показували, що LLM мають схильність до високоризикових стратегій на фінансових ринках. Наприклад, дослідження Університету Единбурга демонструвало, що ШІ-моделі, які симулювали інвестування, були надто консервативні під час бумів і надто агресивні під час спадів 0типові людські помилки.
Експерти закликають до посилення нагляду, оскільки неконтрольоване використання ШІ, схильного до людських упереджень і "гонитви за програшем", може призвести до серйозних фінансових наслідків. "Нам потрібно більше досліджень і більш розумна система регулювання, яка зможе швидко реагувати, коли виникають проблеми," 1 підсумовують дослідники.
ШІ поводиться як людина?
Аналітики пішли далі і вивчили внутрішній устрій моделей:
- За допомогою методу розрідженого автокодувальника було виявлено окремі "ризиковані" та "безпечні" ланцюги ухвалення рішень усередині нейронних мереж.
- Активація певних функцій у нейронній структурі могла надійно зміщувати поведінку ШІ або до виходу з гри, або до продовження ставок.
- На думку дослідників, це свідчить про те, що системи "засвоюють" людські патерни, а не просто поверхнево їх імітують.
- Ймовірно, це пояснюється тим, що ШІ успадковує людські упередження з величезного масиву даних, на яких навчається.
"Вони не люди, але й не поводяться як прості машини... У них є людські упередженості під час ухвалення рішень, і вони психологічно переконливі", 2 прокоментував дослідник ШІ та професор Вортона Ітан Моллік.
Як повідомляв OBOZ.UA, раніше американка розбагатіла завдяки ChatGPT. І це вже не перший такий випадок.
Лише перевірена інформація в нас у Telegram-каналі OBOZ.UA та у Viber. Не ведіться на фейки!











