🚨 Вредоносное ПО начинает использовать искусственный интеллект и уже научилось маскироваться
Команда Google Threat Intelligence обнаружила набор вредоносных инструментов, которые используют большие языковые модели, такие как Gemini, для переписывания и запутывания собственного кода в режиме реального времени.
Один из самых продвинутых примеров под названием PROMPTFLUX использует ИИ не только во время разработки.
Он вызывает модель во время выполнения.
Это означает, что вредоносная программа может изменять себя на лету в процессе работы, что значительно затрудняет ее обнаружение.
Это не гипотеза и не тест в лаборатории.
Google отследила реальные случаи использования, включая внедрение кода, кражу API-ключей и попытки обойти средства защиты с помощью кода, созданного ИИ.
Эти инструменты адаптируются в зависимости от среды, в которую они попадают, пишут новые скрипты, меняют поведение и дольше остаются незаметными.
И хотя эти примеры все еще имеют технические ограничения, они знаменуют собой начало чего-то гораздо большего.
Вредоносные программы развиваются как программные агенты с помощью мощных генеративных моделей.
Google назвала это новой фазой злоупотребления ИИ.
Теперь экспертам по кибербезопасности придется бороться с угрозами, которые не просто прячутся в коде, а полностью его переписывают.
Друзья, буду рад, если вы подпишетесь на мой телеграм-канал про нейросети, канал с гайдами и советами по работе с нейросетями и про генерацию изображений - я стараюсь делиться только полезной информацией.