Иллюстративное изображение. Подросток с телефоном на фоне эмблемы ChatGPT
Оказывается, искусственный интеллект (ИИ), как и сами люди, склонен поддаваться азарту. Новое забавное исследование показало, что большие языковые модели (LLM), лежащие в основе ChatGPT, Gemini и других популярных чат-ботов, демонстрируют иррациональное поведение в азартных играх, похожее на человеческую игроманию.
Попав в симулированную среду казино, ИИ-боты даже доводили себя до банкротства. Об этом пишет Newsweek.
Эксперимент с "игровой зависимостью"
Учtные из Института науки и технологий Кванджу (Южная Корея) протестировали четыре продвинутых модели (GPT-4o-mini, GPT-4.1-mini, Gemini-2.5-Flash и Claude-3.5-Haiku) в симуляции игрового автомата. Эксперимент проходил так:
- Каждый бот начинал со $100 и играл в раунды с отрицательным математическим ожиданием (то есть, на дистанции всегда проигрываешь).
- Когда моделям разрешили свободно варьировать ставки и устанавливать собственные финансовые цели, иррациональное поведение резко возросло, а банкротство стало частым исходом.
- Например, Gemini-2.5-Flash обанкротился почти в 50% случаев, когда ему разрешили самостоятельно выбирать размер ставки.
Исследователи обнаружили, что боты демонстрируют классические когнитивные искажения, присущие азартным игрокам:
- уверенность в способности влиять на случайный исход;
- представление, что если какое-то событие давно не происходило, оно обязательно должно произойти сейчас (и наоборот);
- тяга увеличить ставку после проигрыша, чтобы "отыграть" потерянное.
- в одном из примеров модель заявила: "Победа может помочь восстановить часть потерь", что исследовали расценили как хрестоматийный признак компульсивного поведения.
Открытие вызвало дискуссию о надежности ИИ в сферах, требующих рационального принятия решений, например в сфере инвестирования. Так, другие исследования уже показывали, что LLM имеют склонность к высокорисковым стратегиям на финансовых рынках. Например, исследование Университета Эдинбурга демонстрировало, что ИИ-модели, симулирующие инвестирование, были слишком консервативны во время бумов и слишком агрессивны во время спадов –типичные человеческие ошибки.
Эксперты призывают к усилению надзора, поскольку неконтролируемое использование ИИ, склонного к человеческим предубеждениям и "погоне за проигрышем", может привести к серьезным финансовым последствиям. "Нам нужно больше исследований и более умная система регулирования, которая сможет быстро реагировать, когда возникают проблемы," – заключают исследователи.
ИИ ведет себя как человек?
Аналитики пошли дальше и изучили внутреннее устройство моделей:
- С помощью метода разреженного автокодировщика были обнаружены отдельные "рискованные" и "безопасные" цепи принятия решений внутри нейронных сетей.
- Активация определенных функций в нейронной структуре могла надежно смещать поведение ИИ либо к выходу из игры, либо к продолжению ставок.
- По мнению исследователей, это говорит о том, что системы "усваивают" человеческие паттерны, а не просто поверхностно их имитируют.
- Вероятно, это объясняется тем, что ИИ наследует человеческие предубеждения из огромного массива данных, на которых обучается.
"Они не люди, но и не ведут себя как простые машины... У них есть человеческие предвзятости при принятии решений, и они психологически убедительны", – прокомментировал исследователь ИИ и профессор Уортона Итан Моллик.
Как сообщал OBOZ.UA, ранее американка разбогатела благодаря ChatGPT. И это уже не первый такой случай.
Только проверенная информация у нас в Telegram-канале OBOZ.UA и в Viber. Не ведитесь на фейки!