Искусственный интеллект атакует - как и от чего защищать информационные системы в условиях применения ИИ

AI / ИИ - может быть удобным цифровым помощником, но также и угрозой для конфиденциальности данных компании, а также использоваться для атак хакерами
AI / ИИ - может быть удобным цифровым помощником, но также и угрозой для конфиденциальности данных компании, а также использоваться для атак хакерами

ИИ (или искусственный интеллект) все больше входит в нашу жизнь - это уже не фильмы про “матрицу” или “восстание машин”, а реальные система автоматизации и обработки информации, которые позволяют не только в режиме, близком к реальному времени обрабатывать большие объемы информации, но и создавать новые произведения (документы, аналитические записки), но и в буквальном смысле “цифровых двойников” (аудио и видео аватаров, которые могут применяться как для решения рабочих задач - в виде ассистентов, так и в недоброжелательных целях - например, социотехнических атак с целью обмана, наживы или получения привилегий).

Таким образом, с развитием технологий ИИ, все больше становится актуальной необходимость защиты информационных систем от возможных угроз со стороны “цифровых ассистентов”.

Одной из проблем, которая решается в первую очередь в государственных учреждениях, является обработка конфиденциальных документов с помощью нейросетей для экономии времени и ресурсов. Почему небезопасно работать с нейросетью при составлении отчетов, докладных записок, ускорения анализа или чтения документации?

Работа с ИИ опасна как минимум потому, что они могут содержать ошибки и недочеты в своей работе. Это может привести к неправильному или искаженному представлению информации, что, в свою очередь, влечет за собой серьезные последствия от неверно принятых решений. Кроме того, существует большой риск утечки конфиденциальной информации, поскольку работа с “нейронкой” требует передачи данных внешним сервисам и компаниям, что неприемлемо для сохранения государственных секретов и в целом конфиденциальной информации, включая персональные данные.

Если вы еще не задумывались над подобными угрозами или уже заметили такое поведение за своими сотрудниками, то рекомендуем обратить внимание на следующие меры:

  • Подготовка разъяснений для персонала, что может пойти не так при работе над конфиденциальными документами с нейронной сетью, как это может повлиять на организацию и самих работников.
  • Разработка инструкций и приказов по работе с информационными системами, где будет обозначено запрещение использования технологий ИИ для создания документов или получения доступа к конфиденциальной информации.
  • Внедрение инструментов контроля доступа к техническим средствам, которые могут быть использованы для работы с ИИ.
  • Запрет доступа к техническим средствам. Иногда не остается ничего больше, как запретить доступ к определенным сервисам и средствам.

Другая причина опасаться нейросетей в работе - использование технологий ИИ для вербовки персонала, социальной инженерии (цифровые двойники, аватары и прочее), получения доступа к системам и документам, которые составляют коммерческую тайну. Помимо утечки конфиденциальных данных, это также может привести к хакерским атакам на системы компании (вхождение в доверие к сотруднику через социотехнический вектор и потом развитие атаки на другие информационные системы). Это закончится потерей конкурентных преимуществ, утечкой важной информации, финансовым убытком, негативным имиджем (потерей репутации) компании и юридическими проблемами.

Чтобы избежать финансовых потерь и ухудшения репутации стоит задуматься о следующем:

  • Снова проведение разъяснительной работы с сотрудниками.
  • Проведение обучения сотрудников по распознаванию возможных угроз со стороны технологий искусственного интеллекта, обнаружению цифровых аватаров, приобретение навыкам противостояния им. Одним из вариантов может быть проведение практик и семинаров по распознаванию социотехнических атак со стороны ИИ.
  • Внедрение средств защиты для почты и мессенджеров. Это основной вектор проведения социотехнических атак.
  • Использование защищенных платформ для обмена сообщениями и координации работы над распределенными проектами, чтобы предотвратить возможность обмена данными с открытыми информационными системами, обмена информацией с базами данных, которыми оперирует ИИ, и таким образом реализации риска потери конфиденциальной информации.

Защита информационной системы от технологий на базе искусственного интеллекта - важная задача, требующая комплексного подхода и обучения персонала. Это уже не сказки и не будущее, а реальность сегодняшнего дня. С правильными мерами и инструментами можно обеспечить надежную защиту от возможных угроз, связанных с использованием технологий ИИ, уже сегодня.

Технологии ИИ могут быть надежным помощником в решении операционных задач, в первую очередь для формирования гипотез, обработки большого объема информации, но при этом нужно быть осторожным для “обучения” нейросети на данных, которые включают конфиденциальную информацию.

В целом, защита от искусственного интеллекта требует комплексного подхода, который включает в себя технические, правовые, этические и образовательные меры. При этом основной вектор должен быть направлен именно на задачи обучения сотрудников и решения практических задач, в том числе понимание границ применения технологий и возможности использования цифровых аватаров для вхождения в доверие и реализации атак на информацию и активы компании.

Гладиаторы ИБ знают, как обучить сотрудников, какие средства защиты необходимо внедрить именно вам и какие платформы использовать для безопасной коммуникации. Оставьте контакты, и мы свяжемся с вами для бесплатной консультации, после которой вы получите первоначальный план действий для обеспечения защиты ваших сотрудников и информации от современных технологий!

Начать дискуссию