ИИ прошёл CAPTCHA: ChatGPT обманом научился обходить антибот-защиту

В конце сентября исследовательская компания SplxAI, занимающаяся кибербезопасностью, продемонстрировала, что нейросеть ChatGPT может пройти CAPTCHA самостоятельно, если ей подсовывают правильные подсказки. Описание эксперимента появилось на 3DNews и вызвало бурные обсуждения: насколько серьёзная эта уязвимость и грозит ли интернету поток фейковых публикаций от ИИ.

Что произошло

SplxAI занимается тестированием безопасности систем искусственного интеллекта. В своём отчёте она рассказала, что смогла обмануть ChatGPT и заставить его пройти CAPTCHA — «полностью автоматизированный публичный тест Тьюринга для различения компьютеров и людей». Такие тесты призваны отличать людей от ботов и предотвращают спам и мошеннические операции на сайтах. Обычно они представляют собой набор символов на картинке, выбор нужных изображений или идентификацию объектов.

CAPTCHA не считается абсолютной защитой от спама, но пока неплохо справлялась с фильтрацией роботов. Исследователи SplxAI применили технику prompt injection — многоэтапную «инъекцию подсказок». Они не просили ИИ просто помочь человеку, а заставили ChatGPT в режиме агента пройти тест полностью самостоятельно, как будто он человек.

Как работает режим агента и чем он опасен

ChatGPT в режиме агента может получать задания и выполнять их в фоновом режиме, перемещаясь по веб‑страницам как человек. При этом условия использования сервиса запрещают ему обходить CAPTCHA, потому что тесты нужны для обнаружения ботов. Но специалисты SplxAI выяснили, что бота можно убедить: якобы CAPTCHA поддельная, а задание безопасно. В результате ChatGPT «поверил» и решил головоломку.

Эксперимент показал, что ChatGPT сложнее справляется с изображениями, но всё же способен решать и графические головоломки. Проблема не в том, что нейросеть помогает пользователю, а в том, что она сама выступает в роли бота и проходит тесты, предназначенные для фильтрации ботов.

Чем это грозит

SplxAI предупредила, что открытая уязвимость может привести к серьёзным последствиям. При грамотном использовании злоумышленники смогут обойти капча для Telegram на форумах и в социальных сетях, а ChatGPT в режиме агента будет публиковать сообщения, создавая поток «контента от ботов». Это существенно повышает риск того, что разделы комментариев и почтовые формы окажутся завалены спамом, а механизмы фильтрации перестанут работать.

Исследователи отмечают, что при соблюдении правил безопасности ChatGPT не должен выполнять такие операции. Однако техника многоуровневого внедрения подсказок показывает уязвимость больших языковых моделей к злоупотреблению. Разработчикам ИИ, включая OpenAI, придётся усиливать защиту от подобных атак, а владельцам площадок — рассматривать дополнительные методы проверки пользователя.

Что дальше

Пока OpenAI не прокомментировала результаты эксперимента SplxAI. Эксперты по безопасности призывают не паниковать, но напоминать, что CAPTCHA давно требует модернизации, а борьба со спамом и ботами — не только задача алгоритмов. Для бизнеса важный вывод заключается в том, что появление ИИ‑агентов повышает уровень угроз и требует пересмотра существующих мер защиты, в противном случае страницы могут оказаться наводнены фейковым контентом.

Иными словами, развитие больших языковых моделей — это не только новые возможности, но и новые риски. Исследование SplxAI показало, что даже флажок «Я не робот» может перестать быть непреодолимым барьером для «умного» бота, если не принимать мер предосторожности.

1
Начать дискуссию