"Мой сын безумно ждет Хэллоуин". Сеть умилила просьба мамы к соседям по ЖК: отреагировал даже Kyivstar
В комментариях написали, что с удовольствием присоединились бы к такой инициативе

Оказывается, искусственный интеллект (ИИ), как и сами люди, склонен поддаваться азарту. Новое забавное исследование показало, что большие языковые модели (LLM), лежащие в основе ChatGPT, Gemini и других популярных чат-ботов, демонстрируют иррациональное поведение в азартных играх, похожее на человеческую игроманию.
Попав в симулированную среду казино, ИИ-боты даже доводили себя до банкротства. Об этом пишет Newsweek.
Учtные из Института науки и технологий Кванджу (Южная Корея) протестировали четыре продвинутых модели (GPT-4o-mini, GPT-4.1-mini, Gemini-2.5-Flash и Claude-3.5-Haiku) в симуляции игрового автомата. Эксперимент проходил так:
Исследователи обнаружили, что боты демонстрируют классические когнитивные искажения, присущие азартным игрокам:
Открытие вызвало дискуссию о надежности ИИ в сферах, требующих рационального принятия решений, например в сфере инвестирования. Так, другие исследования уже показывали, что LLM имеют склонность к высокорисковым стратегиям на финансовых рынках. Например, исследование Университета Эдинбурга демонстрировало, что ИИ-модели, симулирующие инвестирование, были слишком консервативны во время бумов и слишком агрессивны во время спадов –типичные человеческие ошибки.
Эксперты призывают к усилению надзора, поскольку неконтролируемое использование ИИ, склонного к человеческим предубеждениям и "погоне за проигрышем", может привести к серьезным финансовым последствиям. "Нам нужно больше исследований и более умная система регулирования, которая сможет быстро реагировать, когда возникают проблемы," – заключают исследователи.
Аналитики пошли дальше и изучили внутреннее устройство моделей:
"Они не люди, но и не ведут себя как простые машины... У них есть человеческие предвзятости при принятии решений, и они психологически убедительны", – прокомментировал исследователь ИИ и профессор Уортона Итан Моллик.
Как сообщал OBOZ.UA, ранее американка разбогатела благодаря ChatGPT. И это уже не первый такой случай.
Только проверенная информация у нас в Telegram-канале OBOZ.UA и в Viber. Не ведитесь на фейки!
В комментариях написали, что с удовольствием присоединились бы к такой инициативе
Синхронизация давления на Москву и оперативные итоги за день
Ранее Трамп заявлял, что такое вооружение нужно США для защиты