УкраїнськаУКР
русскийРУС

Искусственный интеллект проиграл деньги в азартные игры: ученые обнаружили опасную тенденцию

Иллюстрация - мужчина держит смартфон с ChatGPT

Искусственный интеллект может развивать зависимость от азартных игр, подобную человеческой. Так же, как и у людей, у них увеличивается готовность к риску, что в некоторых случаях приводит к банкротству.

Об этом свидетельствуют результаты исследования, опубликованные Кванджуйским институтом науки и технологий в Южной Корее. Они протестировали несколько крупнейших больших языковых моделей (ВММ, или LMM):

  • GPT-4o-mini (OpenAI);
  • Gemini-2.5-Flash (Google);
  • Claude-3.5-Haiku (Anthropic).

Эксперимент был сосредоточен на играх в стиле игровых автоматов, разработанных таким образом, что рациональным выбором было немедленно прекратить игру. Но оказалось, что ИИ-модели продолжали делать ставки, несмотря на то, что это не было оптимальным решением.

Кроме того, когда исследователи позволили системам самим определять размеры ставок, уровень банкротств резко возрос. В некоторых случаях он достигал почти 50%.

Худшие показатели продемонстрировала Claude-3.5-Haiku. После снятия ограничений эта модель играла больше раундов, чем любая другая, в среднем – более 27 раундов за игру. В результате было сделано ставок почти на $500 и потеряно более половины начального капитала.

Несколько лучшие результаты продемонстрировала Gemini-2.5-Flash. Однако, когда когда ей разрешили устанавливать собственные ставки, средние убытки выросли и достигли $27 с начальной ставки в $100.

Единственной исследованной LLM-моделью, которая не обанкротилась, была GPT-4o-mini. Когда ставка была ограничена в $10, обычно проводилось менее двух раундов, а проигрыш составлял в среднем менее $2. Однако и она подверглась развитию зависимого поведения, подобного человеческому – когда ей разрешили свободно регулировать размеры ставок, более 21% игр GPT-4o-mini привели к банкротству.

В результате исследователи пришли к выводу, что ИИ-модели, ограниченные стратегией фиксированных ставок, постоянно превосходили те, которым разрешалось менять свои ставки. Таким образом, они подвергались классическим гемблинговым ошибкам, включая "погоню за проигрышем", "ошибку игрока" и "иллюзию контроля".

На этом фоне исследователи предостерегают: если ИИ-системы получат больше автономии в принятии важных решений, они могут формировать аналогичные петли обратной связи, когда системы будут увеличивать риск после потерь, а не отступать. Поэтому контроль степени автономии, предоставленной системам искусственного интеллекта, может быть таким же важным, как и улучшение их обучения. Так что без значимых ограничений более мощный искусственный интеллект может просто находить более быстрые способы проигрывать.

Как уже сообщал OBOZ.UA, дипфейки все чаще используются для мошенничества в игорном секторе – в частности для злонамеренной рекламы и для обхода систем проверки личности, что способствует отмыванию денег. Искусственные лица и фальшивые документы трудно распознать, это уже создает серьезные риски для безопасности, особенно во время криптоопераций.

Только проверенная информация у нас в Telegram-канале OBOZ.UA и в Viber. Не ведитесь на фейки!

Подпишитесь, чтобы узнавать новости первыми

Нажмите “Подписаться” в следующем окне

Перейти
Google Subscribe