Проверяй, не доверяй: как отличить видео от дипфейка

Проверяй, не доверяй: как отличить видео от дипфейка

Компания Apple на прошлой неделе представила нейросеть под названием NeuMan, способную генерировать дипфейк-видео на основе уже существующих роликов. Новой нейросети достаточно 10-секундного видео с вашим участием, чтобы сделать фейк.

Еще одной громкой новостью стал дипфейк топ-менеджера Binance, который был создан мошенниками для кражи криптосредств. Злоумышленники провели серию видеозвонков через Zoom с несколькими представителями криптовалютных проектов. Чтобы создать ощущение общения с представителем площадки, они использовали поддельное видео.

Все чаще мы слышим подобные новости. Давайте разберемся, что такое дипфейки. Простая игрушка или опасное развлечение? Пранк или новая техника для атак злоумышленников? Расскажем о программах, которые помогут их создать или распознать.

Что такое дипфейк?

Возможно, вы видели, как Барак Обама оскорблял Дональда Трампа, или Марк Цукерберг хвастался “полным контролем над украденными данными миллиардов людей”? Или смеялись с тредов в соцсетях, где пользователи делились видео-подделками с заменой лиц персонажей из разных фильмов на лицо Николаса Кейджа? Все эти видео сделаны с помощью технологий искусственного интеллекта (ИИ) и называются дипфейки.

Дипфейк (от англ. deepfake – “глубокая подделка”) – метод синтеза контента, основанный на машинном обучении и искусственном интеллекте. На исходное изображение, видео или звук накладываются фрагменты другого контента: лица, мимики, голоса, интонации и т.д. Термин представляет собой смесь слов "глубокое обучение" и "фейк".

Дипфейки создаются при помощи метода глубокого обучения, известного как генеративно-состязательная сеть (GAN). Суть заключается в противопоставлении двух алгоритмов: генератора и дискриминатора. Генератор создает подделку, а дискриминатор пытается понять, настоящее перед ним изображение или нет. Чем лучше обманывает генератор, тем лучше конечный результат.

Трудно установить, когда эта технология была изобретена. Она происходит от технологии манипуляций с фотографиями и цифровым видео 1990-х годов. Тем не менее, первая успешная подделка была создана и опубликована на Reddit в 2017 году. Пользователь разместил откровенные видео, поместив лица знаменитостей на лица актеров.

Эта технология уже опережает нашу способность ее идентифицировать – и это плохая новость для кибербезопасности. Доступные методы глубокого обнаружения все еще находятся в стадии разработки, в результате чего компании и сотрудники подвергаются новой форме атак.

Истории, когда мир купился на дипфейки

Чтобы не быть голословными, мы собрали интересные и громкие кейсы, когда дипфейки имели серьезные последствия.

Ограбление банка на 35 000 0000 долларов

В начале 2020 года менеджеру банка в Гонконге позвонил человек, которого он сразу узнал – это был голос директора компании. У того были хорошие новости: компания совершает крупную сделку, но для этого нужно, чтобы банк санкционировал переводы на 35 000 000 долларов. Менеджер банка увидел в своем почтовом ящике электронные письма, подтверждающие эту сумму, и перевел деньги на счета преступников.

Следователи считают, что в операции участвовали 17 человек. Грабители отправили украденные деньги в банки по всему миру.

Обещание 50% прибыли от Тинькова

Осенью 2021 в сети появилось видео с основателем одноименного банка Олегом Тиньковым. Бизнесмен на видео обещал 50% прибыли от инвестиций, которые можно сделать, перейдя по ссылке в описании ролика.

Ролик создали мошенники и распространили его в социальных сетях. Главной целью было получение средств и личных данных доверчивых жертв.

Дипфейк-поздравление с Елизаветой II

В декабре 2020 года британский телеканал Channel4 показал в эфире дипфейк Елизаветы II. Это было альтернативное рождественское поздравление – в нем цифровая версия королевы танцует на столе, делится своими размышлениями о годе и шутит про членов королевской семьи.

Позже канал показал отдельный ролик, в котором разъяснил причины публикации провокационного видео. Руководство Channel4 хотело показать, насколько легко использовать технологию дипфейк, и призвало зрителей критически относится ко всем материалам, которые есть на телевидении и в интернете.

Как создать подделку?

На сегодняшний день существует множество проектов и приложений, находящихся в свободном и бесплатном доступе, с помощью которых можно создать дипфейки. Для этого не нужно уметь программировать.

ZAO – приложение для Android и iOS. Суть заключается в модулировании голоса знаменитостей и наложении своего лица на тело актера. Приложение основано на работе обучаемых нейросетей. Они не просто заменяют одно изображение на другое, но и копируют мимику и движения героя. Однако есть недостатки – программа заточена под Китай, поэтому обработка лиц европейского типа пока не проработана.

DeepFace Lab – одна из самых популярных программ для создания дипфейков. Репозиторий проекта имеет почти 8 тысяч форков и 34 тысячи звезд на GitHub. Система рассчитана одновременно на пользователей без знаний о фреймворках глубокого обучения и на разработчиков.

Reface – это стартап, который переходит от приложения для смены лица к социальной платформе. Проект нацелен на создание дипфейков для индустрий моды и рекламы. Достаточно одной фотографии в анфас, чтобы увидеть свое лицо в популярных гифках, отрывках фильмов, рекламе или игр. Разработчики одновременно со своими сервисами создают антидоты, помогающие распознать сгенерированные изображения и видео.

Как мы создавали аудио-дипфейки

Наши специалисты тестили возможности проекта Real-Time Voice Cloning для осуществления потенциальной атаки методами продвинутой социальной инженерии.

Real-Time Voice Cloning – Text-To-Speech Synthesis (SV2TTS) – по своей сути, инструмент клонирования голоса с помощью фрагмента длительностью 5-10 секунд. Этого можно добиться, просто позвонив нужному человеку по телефону и записав голос жертвы. Не менее важно при этом постараться записать разные интонации, чтобы не допустить монотонности будущего дипфейка. Работает успешно, разве что не говорит по-русски: обучена на английском языке.

Как выявить подделку и не стать жертвой обмана?

Вы можете попытаться определить дипфейк как самостоятельно, так и с помощью специальных программ.

Самостоятельный поиск

У дипфейков есть отличительные от оригинала особенности — они могут иметь уловимые человеческим глазом артефакты, или небольшие отклонения. Они же и будут являться предупреждающими сигналами тому, что перед вами подделка.

Мы собрали некоторые характерные черты дипфейков в таблицу ниже.

Проверяй, не доверяй: как отличить видео от дипфейка

Примеры

Проверяй, не доверяй: как отличить видео от дипфейка
Проверяй, не доверяй: как отличить видео от дипфейка

Когда не удается найти дипфейк своими силами, поможет профессиональная экспертиза. Так случилось с предполагаемым дипфейком президента Габона.

Осенью 2018 в Габоне сформировалась напряженная политическая ситуация, связанная с долгим отсутствием в стране президента Али Бонго и слухами о его смерти. На фоне спекуляций советники президента пообещали, что он выступит со своим обычным новогодним обращением. В итоге правительство опубликовало видео, которое вызвало у народа больше вопросов, чем ответов. Некоторые габонцы пришли к выводу, что видео - подделка. Главный технолог компании McAfee со своей командой, занимающейся киберзащитой, провели две экспертизы и дали почти 92-процентную вероятность подлинности видеообращения.

Алгоритмы и программы, которые находят дипфейки

По иронии судьбы, искусственный интеллект помогает не только создавать, но и выявлять дипфейки. Однако многие существующие системы обнаружения качественно работают лишь на фотографиях знаменитостей из-за того, что нейросети тренируются часами на свободно доступных кадрах.

Уже существуют алгоритмы, помогающие создателям проверять подлинность своих видеозаписей. Например, криптографический метод используется для вставки хэшей через определенные промежутки времени по всему фильму. Хэши изменятся, если видео будет модифицировано.

Программы, с помощью которых можно обнаружить дипфейки:

  • Deepware – бесплатный сканер видео с открытым исходным кодом и приложение для Android.
  • Image Edited – программа бесплатно определяет, были ли внесены изменения в снимок. Если были, сообщает, в каком графическим редакторе их сделали. Сервис анализирует фото на уровне пикселей и их цветов.

Вышеперечисленные программы работают только для видео- и фото-подделок. Аудио-дипфейки вычислить сложнее, а их создание менее трудозатратно и не требует больших мощностей.

Дипфейк-технология будет развиваться, как и методы ее обнаружения. На сегодняшний день обнаружить дипфейк-видео не составит труда. Многие примеры дипфейков в настоящее время являются просто забавными пародиями или экспериментами, предназначенными для изучения пределов технологии глубокого обучения. Однако дело обстоит иначе с аудио-дипфеками, они уже сегодня довольно реалистичны. Опытным злоумышленникам не составит труда прописать скрипт диалога. К тому же, существуют программы, которые создают аудио-дипфейки онлайн.

На уровне организаций должен быть четкий регламент для подтверждения финансовых транзакций или других важных действий. Необходимо прописать инструкцию, в соответствии с которой, исполняющий персонал будет получать подтверждение своих действий либо через другой канал связи, либо через второе доверенное лицо.

Ведущий специалист департамента анализа защищенности Вадим Шелест

Обратная сторона дипфейков

Дипфейк – относительно новая технология, которая используется как во вред, так и во благо. Например, ее можно применять для клонирования голоса людей, которые потеряли его из-за болезни. Также дипфейк-видео оживляет галереи и музеи: во Флориде в музее Дали есть дипфейк художника-сюрреалиста, который представляет свое искусство и делает селфи с посетителями.

Для индустрии развлечений технологии пригодятся для улучшения дубляжа фильмов на иностранных языках и, возможно, для “воскрешения” мертвых актеров: покойный Джеймс Дин предположительно появится во вьетнамском фильме "В поисках Джека". Также фанаты могут самостоятельно добавить любимых актеров в сериал, как это произошло, например, с Эмилией Кларк. Актрису добавили в сцены нового сериала “Дом дракона” с помощью дипфейка.

Мы надеемся, что с развитием искусственного интеллекта будут развиваться и законы, контролирующие применение новой технологии и взаимодействие между человеком и искусственным интеллектом.

1111
Начать дискуссию