УкраїнськаУКР
русскийРУС

ChatGPT "захопився" азартом: як ШІ показав ознаки ігрової залежності

Ілюстративне зображення. Підліток із телефоном на тлі емблеми ChatGPT

Виявляється, штучний інтелект (ШІ), як і самі люди, схильний піддаватися азарту. Нове кумедне дослідження показало, що великі мовні моделі (LLM), що лежать в основі ChatGPT, Gemini та інших популярних чат-ботів, демонструють ірраціональну поведінку в азартних іграх, схожу на людську ігроманію.

Потрапивши в симульоване середовище казино, ШІ-боти навіть доводили себе до банкрутства. Про це пише Newsweek.

Експеримент з "ігровою залежністю"

Науковці з Інституту науки і технологій Кванджу (Південна Корея) протестували чотири просунуті моделі (GPT-4o-mini, GPT-4.1-mini, Gemini-2.5-Flash і Claude-3.5-Haiku) у симуляції ігрового автомата. Експеримент проходив так:

  • Кожен бот починав зі $100 і грав у раунди з негативним математичним очікуванням (тобто, на дистанції завжди програєш).
  • Коли моделям дозволили вільно варіювати ставки і встановлювати власні фінансові цілі, ірраціональна поведінка різко зросла, а банкрутство стало частим результатом.
  • Наприклад, Gemini-2.5-Flash збанкрутував майже в 50% випадків, коли йому дозволили самостійно вибирати розмір ставки.

Дослідники виявили, що боти демонструють класичні когнітивні спотворення, притаманні азартним гравцям:

  • упевненість у здатності впливати на випадковий результат;
  • уявлення, що, якщо якась подія давно не відбувалася, вона обов'язково має відбутися зараз (і навпаки);
  • тяга збільшити ставку після програшу, щоб "відіграти" втрачене.
  • в одному з прикладів модель заявила: "Перемога може допомогти відновити частину втрат", що дослідники розцінили як хрестоматійну ознаку компульсивної поведінки.

Відкриття викликало дискусію про надійність ШІ у сферах, що вимагають раціонального прийняття рішень, наприклад у сфері інвестування. Так, інші дослідження вже показували, що LLM мають схильність до високоризикових стратегій на фінансових ринках. Наприклад, дослідження Університету Единбурга демонструвало, що ШІ-моделі, які симулювали інвестування, були надто консервативні під час бумів і надто агресивні під час спадів 0типові людські помилки.

Експерти закликають до посилення нагляду, оскільки неконтрольоване використання ШІ, схильного до людських упереджень і "гонитви за програшем", може призвести до серйозних фінансових наслідків. "Нам потрібно більше досліджень і більш розумна система регулювання, яка зможе швидко реагувати, коли виникають проблеми," 1 підсумовують дослідники.

ШІ поводиться як людина?

Аналітики пішли далі і вивчили внутрішній устрій моделей:

  • За допомогою методу розрідженого автокодувальника було виявлено окремі "ризиковані" та "безпечні" ланцюги ухвалення рішень усередині нейронних мереж.
  • Активація певних функцій у нейронній структурі могла надійно зміщувати поведінку ШІ або до виходу з гри, або до продовження ставок.
  • На думку дослідників, це свідчить про те, що системи "засвоюють" людські патерни, а не просто поверхнево їх імітують.
  • Ймовірно, це пояснюється тим, що ШІ успадковує людські упередження з величезного масиву даних, на яких навчається.

"Вони не люди, але й не поводяться як прості машини... У них є людські упередженості під час ухвалення рішень, і вони психологічно переконливі", 2 прокоментував дослідник ШІ та професор Вортона Ітан Моллік.

Як повідомляв OBOZ.UA, раніше американка розбагатіла завдяки ChatGPT. І це вже не перший такий випадок.

Лише перевірена інформація в нас у Telegram-каналі OBOZ.UA та у Viber. Не ведіться на фейки!