Искусственный интеллект + хакеры: от ненависти до любви и обратно. Часть IV

Рады представить вам финальную часть статьи. Мы уже рассмотрели взаимную борьбу хакеров с ИИ, не нарочную помощь первых второму, а теперь настало время обсудить, как ИИ попал в руки хакеров и что можно выделить в его использовании ими.

Ракировка исподтишка. Использование ИИ в качестве оружия хакерами

Это может звучать комично, но хакеры обращаются к ИИ и используют его для защиты от вредоносных программ и атак, чтобы противостоять достижениям в области кибербезопасности. Как говорится, за что боролись. Например, преступники используют ИИ для сокрытия вредоносных кодов в безопасных приложениях. Они программируют их выполнение в определенное время, скажем, через десять месяцев после установки приложения или когда определенное количество пользователей его установило. Это сделано для максимизации последствий таких атак.

Искусственный интеллект + хакеры: от ненависти до любви и обратно. Часть IV

Дальше больше: хакеры могут предопределять функцию приложений в качестве триггеров ИИ для исполнения задуманных целей. Функции эти варьируются от процессов аутентификации с помощью голосового или визуального распознавания до функций управления идентификацией. Большинство приложений, используемых сегодня, содержат такие функции, и это дает злоумышленникам широкие возможности для «вооружения» моделей ИИ, получения ключа и практически любых атак. Вредоносные модели могут годами оставаться незамеченными, поскольку хакеры выжидают, чтобы нанести удар, когда приложения наиболее уязвимы.

Кроме того, технологии ИИ уникальны тем, что они приобретают знания для соответствующей адаптации. Хакеры знают об этих возможностях и используют их для моделирования адаптируемых атак и создания интеллектуальных вредоносных программ. Поэтому во время атак программы могут собирать знания о том, что помешало атаке быть успешной, и сохранять то, что оказалось полезным. Атаки на основе ИИ могут не увенчаться успехом с первой попытки, но способности к адаптации дадут хакерам преуспеть в последующих нападениях.

Киберпреступники используют ИИ для выполнения интеллектуального вредоносного кода который, самораспространяется по системе или сети. Интеллектуальное вредоносное ПО может использовать незакрытые уязвимости, что повышает вероятность полной компрометации целей. Если интеллектуальная атака сталкивается с исправленной уязвимостью, она немедленно адаптируется, чтобы попытаться скомпрометировать систему с помощью прочих типов атак.

Наконец, хакеры используют технологии искусственного интеллекта для создания вредоносных программ, способных имитировать доверенные системные компоненты. Это делается для улучшения скрытности. Например, они используют такое ПО, чтобы автоматически изучать вычислительную среду организации, жизненный цикл обновлений исправлений, предпочтительные протоколы связи и моменты, в которые системы наименее защищены. Впоследствии хакеры выполняют необнаруживаемые атаки, поскольку они сочетаются со средой безопасности организации. Например, TaskRabbit был взломан, что скомпрометировало 3,75 миллиона пользователей, однако следствию не удалось отследить атаку. Скрытые атаки опасны, поскольку хакеры могут проникнуть в систему и покинуть ее по своему желанию. ИИ облегчает такие атаки, а технология приведет только к созданию более быстрых и интеллектуальных атак.

И снова к принципу Парето. Доступность ИИ сейчас и в обозримом будущем не являются таковой, чтобы хакеры могли направо и налево использовать его возможности. Написание своей нейросети потребует продолжительного времени и колоссальных усилий, из необходимости которых проистекает и необходимость соответствующих знаний. Поэтому о массовых «поставках» такого вооружения киберпреступным батальонам речи не идет, но проблема существует. А решаться она будет в том числе и с помощью ИИ, который в этом контексте с горькой иронией можно назвать мастером на все руки; и конечно смежными, косвенными методами, описанными в предыдущих частях статьи.

44
Начать дискуссию