Хакеры используют Gemini на всех этапах атак и пытаются клонировать модель через дистилляцию
Google Threat Intelligence Group (GTIG) опубликовала детальный отчёт о том, как злоумышленники массово злоупотребляют Gemini (включая Gemini 1.5 Pro и Flash) в 2025–2026 годах.
Ключевые выводы из отчёта:
- Использование ИИ на всех этапах атаки Злоумышленники задействуют Gemini буквально от А до Я: • разведка (OSINT, анализ утечек, поиск уязвимостей) • генерация фишинговых писем и deepfake-текстов • написание вредоносного кода (включая обфускацию) • автоматизация социальной инженерии • пост-эксплуатация и эксфильтрация данных (составление отчётов, сокрытие следов)
- Попытки дистилляции / клонирования модели Несколько APT-групп и киберпреступных коллективов пытаются дистиллировать Gemini в свою меньшую модель. Схема:Генерируют десятки–сотни тысяч тщательно подобранных промптовСобирают ответы Gemini (иногда по 100 000+ запросов)Используют полученный датасет для обучения компактной open-source модели (типа Llama-3.1-8B, Mistral-7B и т.д.) Цель — получить почти такую же мощную модель, но без ограничений Google, без API-ключей и без цензуры/фильтров.
- Масштаб Google зафиксировала случаи, когда отдельные аккаунты делали 100 000+ запросов за короткий период специально для дистилляции. Это уже не единичные эксперименты — появились целые «фермы дистилляции» (в основном в странах Азии и Восточной Европы).
- Почему это работает Дистилляция позволяет обойти миллиардные затраты на обучение с нуля. Злоумышленники получают «почти Gemini» за копейки, причём без этических ограничений и без логов Google.
Google уже усилила защиту:
- Увеличены лимиты на подозрительные паттерны запросов
- Улучшены детекторы дистилляционных атак
- Введены дополнительные проверки на массовые однотипные промпты
Но полностью остановить процесс пока невозможно — данные уже утекают.
Это новый виток гонки вооружений: пока одни компании строят «самые большие и умные» модели, другие пытаются украсть/скопировать их знания за копейки.
1 комментарий