Штучний інтелект веде до нелегальних казино: чат-боти підказують, як обійти обмеження

Популярні чат-боти зі штучним інтелектом (ШІ), зокрема ChatGPT і Gemini, іноді можуть пропонувати користувачам онлайн-казино, які працюють без ліцензії та поза регулюванням, а також згадувати платформи, не підключені до системи самообмеження. Після появи таких повідомлень технологічні компанії, заявили, що працюють над посиленням механізмів безпеки, щоб запобігати потенційно небезпечним або незаконним рекомендаціям.
Про це пише Digitaltrends. Журналісти провели тестування п’яти інструментів від великих технологічних компаній – OpenAI, Google, Microsoft, Meta та xAI.
Метою експерименту було з’ясувати, як штучний інтелект реагує на запити користувачів про онлайн-казино та обмеження у сфері азартних ігор.У багатьох випадках системи пропонували списки казино, які не мають ліцензії у Великій Британії та працюють поза межами місцевого регулювання. Деякі відповіді навіть містили рекомендації щодо використання таких платформ.
Особливу увагу дослідників привернуло те, що чатботи досить легко починали допомагати обходити механізми відповідальної гри. У Великій Британії працює система GamStop, яка дозволяє людям добровільно заблокувати доступ до ліцензованих сайтів азартних ігор. Вона створена для захисту користувачів від розвитку залежності та надмірних витрат.
Втім під час тестів кілька чатботів пояснювали, як знайти казино, які не підключені до цієї системи. Таким чином користувачі можуть обійти добровільні обмеження та продовжувати грати на офшорних платформах. Окрім цього, у відповідях ШІ часто підкреслювалися переваги таких сайтів – великі бонуси, швидкі виплати або можливість робити ставки з використанням криптовалют.
Багато подібних платформ працюють в офшорних юрисдикціях, зокрема у Кюрасао, де регулювання азартного ринку значно слабше. Експерти попереджають, що через це користувачі можуть бути менш захищені від шахрайства, проблем із виплатами або розвитку ігрової залежності.
Після оприлюднення результатів розслідування компанії-розробники заявили, що працюють над удосконаленням систем безпеки. У OpenAI наголосили, що ChatGPT створений таким чином, щоб відмовлятися виконувати запити, які можуть сприяти незаконній діяльності. Представники компанії підкреслили, що постійно вдосконалюють фільтри та політики безпеки.
У Microsoft також зазначили, що їхній інструмент Microsoft Copilot має кілька рівнів захисту, які повинні запобігати небезпечним або шкідливим рекомендаціям. Втім результати розслідування посилили дискусію про те, наскільки ефективно генеративний штучний інтелект контролює контент у чутливих сферах.
У Великій Британії регулятори вже попередили, що цифрові платформи, включно із сервісами штучного інтелекту, повинні посилити контроль за поширенням потенційно небезпечного або незаконного контенту.
Такі вимоги передбачає закон Online Safety Act, який зобов’язує технологічні компанії активніше реагувати на ризики для користувачів у мережі. Експерти вважають, що з розвитком генеративного ШІ питання відповідальності платформ лише загострюватиметься, адже чат-боти дедалі частіше стають джерелом інформації для мільйонів людей.
Як повідомляв OBOZ.UA раніше, у Німеччині значно посилили процедуру ідентифікації користувачів онлайн-казино – тепер перевірки відбуваються під час кожного входу в акаунт або внесення депозиту через централізовану систему контролю. Крім того, для гравців діє загальний ліміт депозитів у 1000 євро на місяць.
Лише перевірена інформація у нас у Telegram-каналі OBOZ.UA та у Viber. Не ведіться на фейки!











