Нейросети работают на мошенников? Разбираем новые схемы

За последний год нейросети не только научились помогать людям, но и оказались в эпицентре финансовых афер. Разбираем четыре схемы мошенничества с использованием Искусственного Интеллекта (ИИ) и даем советы по защите от цифровых угроз.

Нейросети работают на мошенников? Разбираем новые схемы

С вами НБКИ. В этой статье раскроем, как мошенники используют последние достижения в области нейросетей для создания изощренных способов обмана граждан.

Схема 1. Подтверждение личности по видеосвязи

Дипфейки — ИИ-генерация человеческого лица или голоса.

Мошенники «скармливают» нейросети фото, видео и аудиозаписи жертвы, и она создает ее поддельный образ.

Как работает схема:

➡ Аферисты мониторят соцсети жертвы, иногда взламывают устройства и крадут фото/видео из личного архива или переписок в мессенджерах.

Специальное программное обеспечение (ПО) на основе ИИ позволяет мошенникам накладывать цифровую маску с лицом жертвы поверх своего.

➡ Созданный дипфейк используется двумя способами:

1) записать поддельное видео с просьбой срочно перевести крупную сумму денег на счет;

2) подтвердить личность жертвы в приложении банка.

Как защититься?

Если дипфейк используют в мессенджерах, проявить бдительность должен тот, кому отправили сообщение:

  • Запустить видеосообщение на полной громкости, насторожить должны: плохое качество звука, повторяющиеся звуковые эффекты (гул машин, ветер, звуки животных), странные шумы на фоне.
  • Посмотреть на мимику: она должна выглядеть естественно и совпадать с интонацией голоса.
  • Попросить помахать рукой перед лицом — технологии генеративно-состязательных сетей еще не совершенны, поэтому перед сгенерированной маской появятся помехи.

Профилактикой от нейросетевых махинаций занимаются и сами банки: они используют технологию Liveness для защиты от попыток мошенничества с надежной биометрической идентификацией пользователя. Обойти такую систему практически невозможно.

Нейросети работают на мошенников? Разбираем новые схемы

Схема 2. Подделка голосовых сообщений

Голос человека подделывается по той же схеме — через дипфейки. Распознать обман в аудиосообщении сложнее, и аферисты этим пользуются.

Как работает схема:

➡ Мошенники выбирают жертву и обучают нейросеть подделывать голос, интонацию и манеру речи.

➡ Они делают рассылку текстовых сообщений с просьбой срочно перевести деньги и дополняют их аудио с записью реплик человека.

Например, фразой «У меня сейчас нет налички, как закину, переведу тебе». При этом ИИ генерирует не только запись голоса, но и фоновые шумы, звуки улицы, разговоров в помещении.

➡ В это же время на телефон человека, с голоса которого сделали дипфейк, начинается спам-атака звонками. Делается это, чтобы мобильный перевели в авиарежим и пропустили взлом аккаунта.

Как защититься?

  • Послушайте произношение: речь говорящего может быть неразборчивой, со странным акцентом, нехарактерным для человека.
  • Речь не должна быть слишком правильной: для людей в порядке вещей запинаться, использовать слова паразиты, особые выражения.
  • Странные шумы на фоне, с иностранной речью или слишком громкие, будто специально заглушают говорящего.
  • Долгие паузы: генерация предложений занимает у ИИ время, из-за чего между фразами возникают молчаливые задержки.
  • Говорящий отвечает как «по методичке» и использует манипулятивные фразы. Некоторые мошенники стараются надавить на жертву, чего бы не стал делать друг или родственник, обратившийся с просьбой.

Схема 3. Нейросети создают вирусные программы для изъятия персональных данных

Возможности ChatGPT и других ИИ чат-ботов позволяют аферистам создавать сайты для фишинга

Фишинг — получение конфиденциальных данных пользователя (логинов, паролей, данных карт) с помощью интернет-мошенничества, например, создания фейковых ссылок.

Как работает схема:

➡ Мошенники генерируют контент на сайт: просят нейросеть написать тексты, которые имитируют известный бренд, банк и тд.

➡ С помощью кода создают чат-ботов и просят нейросеть прописать сценарии с ответами пользователю для имитации служб поддержки реальных компаний.

➡ Общаются с пользователем в реальном времени и манипуляциями заставляют оставить на сайте персональную информацию.

Как защититься?

  • Всегда проверяйте URL веб-сайта:
Нейросети работают на мошенников? Разбираем новые схемы
  • Будьте осторожны с электронными письмами и сообщениями, которые требуют ввода данных карты или кода-пароля из SMS.
  • Используйте двухфакторную аутентификацию для всех аккаунтов.
  • Установите антивирусное ПО и регулярно обновляйте его.

Схема 4. Нейросеть помогает вжиться в роль сотрудника банка

Мошенники также научили нейросети подражать сотрудникам банкам и представителями спецслужб.

Как работает схема:

➡ Злоумышленники просят ChatGPT сгенерировать сценарий общения с человеком с целью узнать личную информацию. ИИ подсказывает, как устанавливать вирусные программы, переводить деньги на счет мошенников и передавать паспортные данные.

Как защититься?

  • Узнайте как можно больше деталей. Спросите у звонящего должность, адрес отделения, полномочия.
  • Помните, что настоящий сотрудник не запрашивает данные карты, CVC-код, и код-пароль из SMS и не просит установить на телефон/компьютер сторонние программы без личного обращения в банк.
  • Перезвоните на официальный номер банка. Даже если звонящий номер абсолютно идентичен номеру кредитора — зайдите на сайт организации и наберите сами.

Защитите свои данные в кредитной истории

Начните заботу о безопасности данных с защиты от чужих займов в кредитной истории. Услуга «защита от мошенничества» позволит узнать о новой заявке на кредит, новом кредите в КИ или изменении паспортных данных по SMS и email-уведомлению. Срок действия подписки – 1 год.

Чтобы быть в курсе новых мошеннических схем, подписывайтесь на наш канал в Telegram и включайте уведомления🔊

33
Начать дискуссию