За последний год нейросети не только научились помогать людям, но и оказались в эпицентре финансовых афер. Разбираем четыре схемы мошенничества с использованием Искусственного Интеллекта (ИИ) и даем советы по защите от цифровых угроз.С вами НБКИ. В этой статье раскроем, как мошенники используют последние достижения в области нейросетей для создания изощренных способов обмана граждан.Схема 1. Подтверждение личности по видеосвязиДипфейки — ИИ-генерация человеческого лица или голоса.Мошенники «скармливают» нейросети фото, видео и аудиозаписи жертвы, и она создает ее поддельный образ.Как работает схема:➡ Аферисты мониторят соцсети жертвы, иногда взламывают устройства и крадут фото/видео из личного архива или переписок в мессенджерах. Специальное программное обеспечение (ПО) на основе ИИ позволяет мошенникам накладывать цифровую маску с лицом жертвы поверх своего. ➡ Созданный дипфейк используется двумя способами: 1) записать поддельное видео с просьбой срочно перевести крупную сумму денег на счет;2) подтвердить личность жертвы в приложении банка. Как защититься?Если дипфейк используют в мессенджерах, проявить бдительность должен тот, кому отправили сообщение: Запустить видеосообщение на полной громкости, насторожить должны: плохое качество звука, повторяющиеся звуковые эффекты (гул машин, ветер, звуки животных), странные шумы на фоне.Посмотреть на мимику: она должна выглядеть естественно и совпадать с интонацией голоса.Попросить помахать рукой перед лицом — технологии генеративно-состязательных сетей еще не совершенны, поэтому перед сгенерированной маской появятся помехи.Профилактикой от нейросетевых махинаций занимаются и сами банки: они используют технологию Liveness для защиты от попыток мошенничества с надежной биометрической идентификацией пользователя. Обойти такую систему практически невозможно.Схема 2. Подделка голосовых сообщенийГолос человека подделывается по той же схеме — через дипфейки. Распознать обман в аудиосообщении сложнее, и аферисты этим пользуются.Как работает схема:➡ Мошенники выбирают жертву и обучают нейросеть подделывать голос, интонацию и манеру речи.➡ Они делают рассылку текстовых сообщений с просьбой срочно перевести деньги и дополняют их аудио с записью реплик человека. Например, фразой «У меня сейчас нет налички, как закину, переведу тебе». При этом ИИ генерирует не только запись голоса, но и фоновые шумы, звуки улицы, разговоров в помещении.➡ В это же время на телефон человека, с голоса которого сделали дипфейк, начинается спам-атака звонками. Делается это, чтобы мобильный перевели в авиарежим и пропустили взлом аккаунта.Как защититься?Послушайте произношение: речь говорящего может быть неразборчивой, со странным акцентом, нехарактерным для человека.Речь не должна быть слишком правильной: для людей в порядке вещей запинаться, использовать слова паразиты, особые выражения.Странные шумы на фоне, с иностранной речью или слишком громкие, будто специально заглушают говорящего.Долгие паузы: генерация предложений занимает у ИИ время, из-за чего между фразами возникают молчаливые задержки.Говорящий отвечает как «по методичке» и использует манипулятивные фразы. Некоторые мошенники стараются надавить на жертву, чего бы не стал делать друг или родственник, обратившийся с просьбой.Схема 3. Нейросети создают вирусные программы для изъятия персональных данныхВозможности ChatGPT и других ИИ чат-ботов позволяют аферистам создавать сайты для фишингаФишинг — получение конфиденциальных данных пользователя (логинов, паролей, данных карт) с помощью интернет-мошенничества, например, создания фейковых ссылок.Как работает схема:➡ Мошенники генерируют контент на сайт: просят нейросеть написать тексты, которые имитируют известный бренд, банк и тд. ➡ С помощью кода создают чат-ботов и просят нейросеть прописать сценарии с ответами пользователю для имитации служб поддержки реальных компаний. ➡ Общаются с пользователем в реальном времени и манипуляциями заставляют оставить на сайте персональную информацию.Как защититься?Всегда проверяйте URL веб-сайта:Будьте осторожны с электронными письмами и сообщениями, которые требуют ввода данных карты или кода-пароля из SMS.Используйте двухфакторную аутентификацию для всех аккаунтов.Установите антивирусное ПО и регулярно обновляйте его.Схема 4. Нейросеть помогает вжиться в роль сотрудника банкаМошенники также научили нейросети подражать сотрудникам банкам и представителями спецслужб.Как работает схема:➡ Злоумышленники просят ChatGPT сгенерировать сценарий общения с человеком с целью узнать личную информацию. ИИ подсказывает, как устанавливать вирусные программы, переводить деньги на счет мошенников и передавать паспортные данные.Как защититься?Узнайте как можно больше деталей. Спросите у звонящего должность, адрес отделения, полномочия.Помните, что настоящий сотрудник не запрашивает данные карты, CVC-код, и код-пароль из SMS и не просит установить на телефон/компьютер сторонние программы без личного обращения в банк.Перезвоните на официальный номер банка. Даже если звонящий номер абсолютно идентичен номеру кредитора — зайдите на сайт организации и наберите сами.Защитите свои данные в кредитной историиНачните заботу о безопасности данных с защиты от чужих займов в кредитной истории. Услуга «защита от мошенничества» позволит узнать о новой заявке на кредит, новом кредите в КИ или изменении паспортных данных по SMS и email-уведомлению. Срок действия подписки – 1 год. Чтобы быть в курсе новых мошеннических схем, подписывайтесь на наш канал в Telegram и включайте уведомления🔊