Anthropic опубликовала отчёт о том, как злоумышленники используют Claude для кибератак и вымогательства

Компания Anthropic представила августовский отчёт о злоупотреблениях искусственным интеллектом. В документе приводятся конкретные примеры того, как модели Claude используются киберпреступниками — от масштабных вымогательских операций до схем трудового мошенничества и продажи готового вредоносного ПО.

Anthropic опубликовала отчёт о том, как злоумышленники используют Claude для кибератак и вымогательства

Массовое вымогательство с помощью Claude Code

Одним из ключевых кейсов стало расследование крупной кампании по краже и шантажу данных. Злоумышленники использовали Claude Code для автоматизации взломов и анализа украденной информации. Модель помогала не только в технической части — например, при подборе учетных данных или обходе защиты, — но и в психологическом воздействии: генерировала тексты угроз и даже рассчитывала размер выкупа, исходя из финансовых данных жертв. Суммы доходили до полумиллиона долларов. Anthropic заблокировала связанные аккаунты и внедрила новые механизмы обнаружения подобных атак.

Мошенническое трудоустройство в США

Другой случай связан с Северной Кореей. Операторы использовали Claude для создания поддельных личностей и прохождения технических собеседований в американских IT-компаниях. С помощью модели они писали код, решали задания и поддерживали профессиональную переписку на английском. Таким образом удавалось устраиваться на работу и переводить доходы в обход международных санкций. По данным Anthropic, именно ИИ позволил обойти главный барьер — необходимость долгой подготовки специалистов.

Продажа готового «вымогательского конструктора»

Компания также выявила пользователя, который с помощью Claude разработал и распространял несколько вариантов вымогательских вирусов. Получившиеся пакеты с функциями обхода защиты продавались на форумах по цене от 400 до 1200 долларов. По оценке Anthropic, без помощи ИИ автор не смог бы реализовать сложные технические детали, такие как алгоритмы шифрования или механизмы противодействия анализу.

Каждый из описанных случаев показывает, что ИИ снижает порог входа в киберпреступность. Теперь сложные операции могут проводить люди без серьёзных технических навыков, а модели выступают не только советчиками, но и активными участниками атак.

Anthropic подчёркивает, что на основе этих расследований усилила меры защиты, ввела новые классификаторы для обнаружения вредоносных запросов и поделилась данными с профильными организациями и государственными структурами.

Отчёт также указывает на другие попытки злоупотреблений, включая атаки на телекоммуникационную инфраструктуру и схемы с множеством ИИ-агентов. Компания заявляет, что борьба с подобными сценариями станет одним из её приоритетов.

2 комментария