Новый ИИ-агент имитирует человека в опросах: точность обхода защиты достигла 99,8%
Онлайн-опросы, на которых строится значительная часть современной социологии, политологии и маркетинговых исследований, столкнулись с проблемой, которая выглядит не просто серьёзной, а почти системной. В новом исследовании, опубликованном в журнале PNAS, Шон Вествуд, профессор Дартмутского колледжа и руководитель Polarization Research Lab, продемонстрировал ИИ-агента, способного полностью обходить все существующие методы защиты, применяемые в онлайн-опросах.
Разработанный им автономный «синтетический респондент» не просто генерирует ответы — он имитирует поведение настоящего человека: просчитывает время чтения в зависимости от воображаемого уровня образования, печатает текст с опечатками, двигает мышью так, как это делал бы живой пользователь, и корректно реагирует на проверки концентрации внимания. Вествуд подчёркивает, что агент обходил все методы детекции практически безошибочно: точность обхода достигла 99,8%.
Суть проблемы в том, что современные системы контроля качества выборки — проверки внимания, ловушки для ботов, скрытые поведенческие маркеры, анализ шаблонов ответа — создавались для защиты от несфокусированных респондентов и простых автоматизированных скриптов. Появление больших языковых моделей поменяло характер угрозы: теперь атака опирается на способность ИИ воспроизводить как содержание, так и внешнее поведение человека. Характерно и то, что метод Вествуда оказался не зависящим от конкретной модели: он тестировал систему с OpenAI o4-mini, DeepSeek R1, Mistral Large, Claude 3.7 Sonnet, Grok 3, Gemini 2.5 и рядом других моделей, и во всех случаях результат оставался одинаковым.
Кроме полного обхода защиты, исследование показывает, насколько малые объёмы искусственно созданных ответов способны искажать результаты даже национальных опросов. По расчётам автора, вмешательство всего нескольких десятков синтетических респондентов могло бы изменить прогнозы крупных предвыборных исследований в 2024 году. Имитация прохождения опроса с помощью ИИ стоит считанные центы, тогда как человеку за участие выплачивают в среднем порядка полутора долларов. Если учесть, что ИИ способен поддерживать видимость «персоны» — нужный пол, возраст, образование, политические взгляды, — то возможность намеренного искажения опросов становится экономически доступной практически любой заинтересованной стороне.
Вествуд предупреждает, что ситуация представляет угрозу не только для политических исследований, но и для всех дисциплин, опирающихся на массовые онлайн-опросы: психологии, экономики, UX-аналитики, маркетинга. Возможные меры защиты существуют — от более строгой верификации личности до контролируемых выборок на основе адресных баз или списков избирателей, — но каждая из них несёт ощутимые ограничения: снижает приватность, повышает стоимость исследований или усложняет доступ к респондентам.
По словам исследователя, отрасли понадобится пересмотр всей методологии — от механизмов набора участников до новых стандартов проверки данных. Сегодняшние средства защиты от ботов перестали работать в тот момент, когда ИИ научился не просто отвечать на вопросы, а правдоподобно изображать участника исследования.