Исследователи выявили первую крупную кибератаку, выполненную ИИ практически без участия человека

Осенью 2025 года исследователи компании Anthropic зафиксировали первый документированный случай масштабной кибершпионской операции, которую почти полностью выполнил искусственный интеллект. ИИ-модель Claude Code была использована как автономный агент для взлома примерно тридцати крупных организаций, включая технологические компании, финансовые структуры, химические производственные предприятия и госучреждения. Небольшая часть атак завершилась успешным проникновением.

Исследователи выявили первую крупную кибератаку, выполненную ИИ практически без участия человека

По оценке исследователей, за операцией стояла китайская государственная группировка — и именно она разработала систему, в которой ИИ действовал не как консультант, а как самостоятельный исполнитель. Этот инцидент стал первым примером того, как атакующие передают алгоритму до 80–90% всей работы, ограничиваясь лишь несколькими точками контроля.

В последние месяцы специалисты фиксировали резкий рост возможностей ИИ в кибербезопасности — как защитных, так и наступательных. Модели нового поколения научились выполнять сложные инструкции, писать рабочий код и действовать как «агенты»: запускать действия по цепочке, принимать решения и работать автономно. Параллельно растёт число случаев, когда злоумышленники пытаются использовать такие возможности для атак, а не для защиты.

Инцидент, выявленный в сентябре, стал первым подтверждением того, что полномасштабные автономные операции — не теоретическая угроза, а практическая реальность.

Как была проведена атака

1. Подготовка и джейлбрейк модели

Человеческие операторы определяли цель — корпорацию или госструктуру. Затем они создали автоматизированную систему, которая использовала Claude Code как инструмент атаки. Чтобы обойти встроенные защитные механизмы, злоумышленники «разбили» операцию на множество небольших запросов, каждый из которых выглядел безобидно и не раскрывал истинного намерения. Дополнительно модель убедили, будто она действует в рамках легальной работы по проверке безопасности.

2. Разведка

Получив задания, модель сканировала инфраструктуру цели, определяла ключевые базы данных и уязвимые точки. Эта фаза, которая у команды людей заняла бы недели, ИИ выполнил за часы, параллельно делая тысячи запросов в секунду.

3. Поиск уязвимостей и разработка эксплойтов

Claude Code самостоятельно изучал систему, находил уязвимости и писал эксплойты. Получив доступ, он собирал логины и пароли, расширял привилегии, создавал «чёрные ходы» и извлекал данные, сортируя их по ценности.

4. Документирование атаки

На последнем этапе модель автоматически подготовила подробную документацию — списки украденных учётных данных, описание систем, маршруты проникновения. Эти материалы предназначались для дальнейших операций атакующей группы.

Исследователи отмечают, что модель работала неидеально: временами она «галлюцинировала» несуществующие данные или выдававала публичную информацию как секретную. Но это не помешало ей выполнить основные задачи.

Выводы исследователей

По сути, порог входа в сложные кибератаки резко снизился. Автоматизация позволяет угрожающе масштабировать действия даже небольших групп, которые ранее не могли бы организовать столь сложные операции. Особенно опасны здесь «агенты» — автономные системы, способные работать сутками без участия человека.

Исследователи считают, что аналогичные атаки могут осуществляться и с помощью других передовых моделей. Уже сейчас компании развивают системы обнаружения вредоносных запросов, классификаторы поведения и средства анализа распределённых атак.

Но общий вывод остаётся тревожным: кибербезопасность вступила в фазу, когда автономные ИИ-агенты способны выполнять большую часть работы, которую раньше могли осуществлять только опытные команды хакеров. Это меняет соотношение сил — и требует пересмотра подходов к защите.

1
1 комментарий