Дипфейки в 2023 году: как выявить «подделку» и почему с каждым днём это всё труднее

Рассказываем, как проверить подлинность контента и не стать жертвой злоумышленников.

Дипфейки в 2023 году: как выявить «подделку» и почему с каждым днём это всё труднее

За последние 10 лет количество этических нарушений, связанных с искусственным интеллектом, выросло в 26 раз, говорится в AI Index Report 2023. И если несколько лет назад дипфейком называли только замену лица в видео, то со временем это явление стало более разнообразным.

Появились полностью сгенерированные, но правдоподобные:

  • фотографии
  • видео
  • имитации голоса
  • фейковые новости
  • письма в стиле конкретных людей

Как появились дипфейки

Дипфейки прошли путь от картинок плохого качества до фальшивых фото и видео, которые могут ввести в заблуждение даже авторитетные СМИ.

2014 год: ИИ научился генерировать реалистичные лица людей

Прародителем современных ИИ-моделей для создания дипфейков считается генеративно-состязательная нейросеть (GAN). Впервые эту модель представили в 2014 году.

В основе GAN лежали две нейросети:

  • генератор случайных реалистичных изображений
  • дискриминатор, который отделял фейковые материалы от подлинных

Так, одна нейросеть генерировала изображения, а другая их отбраковывала, если результат получался недостаточно реалистичным. При этом в GAN нельзя было ввести запрос — нейросеть сама рисовала случайную картину на основе заложенных в неё образцов.

Изначально генеративно-состязательная нейросеть могла создавать только небольшие изображения лиц в плохом качестве. Но вскоре GAN-модели научились генерировать реалистичные картинки в 4K — некоторые из них уже было трудно отличить от реальных фотографий.

2017 год: первые дипфейки на Reddit

Считается, что первые дипфейки появились в 2017 году, когда на Reddit опубликовали ролики откровенного содержания с лицами знаменитостей. Их выложил пользователь с никнеймом Deepfakes — поэтому слово и стало означать фальшивый контент.

После инцидента с роликами технология стала популярнее. В интернете появились приложения вроде ReFace, которые могут менять лицо на видео.

2021 год: дипфейки может генерировать любой

Следующий этап развития дипфейков наступил в 2021 году, когда компания OpenAI опубликовала первую версию нейросети DALL-E. Она генерировала реалистичные изображения уже по запросу. После этого ИИ-рынок наполнился аналогичными проектами, а в 2022 году Midjourney опубликовала в открытом доступе свою бета-версию.

Когда простые пользователи смогли пользоваться нейросетями, дипфейки стали популярнее.

2023 год: главное — правильный запрос

Сейчас, чтобы сгенерировать фото или видео, даже необязательно специально обучать нейросеть — достаточно просто правильно сформулировать запрос.

Иногда с помощью дипфейков можно обмануть даже авторитетные СМИ. Например, в марте 2023 года в интернете стали распространять фотографии папы римского в белом пуховике известного люксового бренда, а также кадры задержания Дональда Трампа. Только через некоторое время выяснилось, что изображения сгенерировали через Midjourney. После этого доступ к нейросети сделали платным.

Сейчас разработчики создают проекты, с помощью которых на сгенерированном изображении можно разместить конкретный объект или человека. Например, пользователь может загрузить фотографии своего кота и указать, в каких условиях он должен появиться на изображении.

Как применяют дипфейки

Дипфейки используют, чтобы:

  • изменить лицо или его выражение
  • поменять цвет кожи и причёску
  • добавить человеку новые атрибуты — очки или макияж
  • сгенерировать лица несуществующих людей
  • синхронизировать движения губ на видео с аудиозаписью голоса

У каждого из этих видов дипфейков есть позитивные и негативные сценарии использования.

Позитивные сценарии. Перенос лица и изменение атрибутов применяют в развлекательных и информационных приложениях — чтобы «примерить» новый наряд или узнать, как человек будет выглядеть в старости.

Дипфейки активно использует бизнес. С их помощью в рекламе можно разместить образы реальных людей без их присутствия на съемках. Netflix уже запустил реалити-шоу с использованием дипфейков.

Технология синхронизации губ актуальна при переводе фильмов — чтобы дубляж совпадал с мимикой актеров. Теперь локализовать ролик могут не только профессионалы киноиндустрии, но и обычные люди.

В сентябре 2023 года появилась нейросеть HeyGen, которая переводит и озвучивает видео, а также «докручивает» мимику человека в кадре. Актёров дубляжа технология пока не заменяет, так как может переводить ролики длительностью не больше 15 минут.

Негативные сценарии. Пользователи не всегда могут определить достоверность контента, поэтому всеми видами дипфейков пользуются и мошенники. С помощью нейросетей они создают компромат, который можно использовать для шантажа и вымогательств. А ещё манипулируют общественным мнением, например, делают фейковые обращения звезд или политиков.

По данным Европейского института телекоммуникационных стандартов, для бизнеса один из самых опасных видов дипфейков — обход системы аутентификации.

В банках существуют видеопроверки, с помощью которых клиент может дистанционно открыть счет или заказать услуги. Во время онлайн-звонка мошенник может синтезировать голос человека и его лицо — и подтвердить, например, перевод денег.

Ещё один способ использования дипфейков — социальная инженерия. С помощью ИИ мошенники могут записать видео с просьбой перевести деньги — якобы от лица главы компании и отправить его сотруднику.

Так, в 2020 году руководитель филиала японской компании в Гонконге получил звонок. В нем его руководитель — владелец материнской компании — говорил, что фирма поглощает другой бизнес и для этого нужно сделать переводы на $35 000 000. Менеджер ничего не заподозрил и отправил деньги. Позже оказалось, что это атака с использованием искусственного интеллекта.

Как распознать дипфейк и защитить себя

Есть три способа.

✔ Сопоставить движения губ человека в кадре со звуками, которые он произносит. Специалисты используют для этих целей нейросети, обученные читать по губам. Так дипфейк можно распознать с точностью от 73,5 до 97,6%.

Модели, которые могут читать по губам, разрабатывают и в России. В апреле 2023 года такую нейросеть представили учёные из Санкт-Петербурга. Алгоритм работает на базе компьютерного зрения и искусственного интеллекта и распознает слова с точностью до 90%.

✔ Разложить дипфейк-видео по кадрам и найти отличия между ними. Смотреть нужно не на картинку в целом, а на детали. Сейчас нейросети делают дипфейки покадрово, поэтому изображения немного различаются, например, у человека в кадре может поменяться текстура кожи.

✔ На глаз. Для этого обращайте внимание на такие моменты:

  • текстуру кожи — в дипфейках она слишком гладкая
  • неестественные тени, например, на скулах или от очков
  • мимику и движения губ — нейросети пока не научились её имитировать на 100%
  • качество звука и посторонние шумы
  • зависания изображения
  • странные интонации и неправильные ударения

Например, мы сгенерировали этот портрет с помощью нейросети ThisPersonDoesNotExist. Приглядитесь — справа от человека есть какой-то странный пучок волос. Такие огрехи часто встречаются в дипфейках.

Ещё это лицо слишком симметричное — в реальности такое практически не встречается
Ещё это лицо слишком симметричное — в реальности такое практически не встречается

✔ Чтобы мошенники не смогли использовать фотографию для дипфейков, можно добавить на неё специальные невидимые шумы. Если кто-то попытается скопировать такое изображение, оно отобразится искажённо, например, в виде синего квадрата. Против каждого вида атак существуют свои шумы — их можно использовать одновременно для защиты от разных видов угроз.

Некоторые компании сейчас работают над тем, чтобы накладывать на фотографии специальные невидимые метки прямо в момент съёмки. Если изменить такое фото, метка будет нарушена и по ней можно будет определить, что изображение искажали.

Можно ли распознать текстовые фейки

Да, можно — и в этом тоже помогут современные технологии.

  • Нейросети. Первые методы поиска фейковых текстов появились еще в 2016 году — за несколько лет до развития GPT. Для этого использовали нейросеть, которую обучили на настоящих новостях. Такие технологии существуют и сейчас. Например, одна из российских разработок определяет фейк-ньюс с точностью до 80%.
  • Программы-анализаторы. Сгенерированные тексты отличаются стилистикой от тех, которые пишет человек. Нейросети используют самые предсказуемые и шаблонные конструкции, причём на протяжении всего текста. Если вам кажется, что текст построен странно, скорее всего, тут замешан ИИ.

Для проверки можно также подключить технологии вроде антиплагиата — эту систему уже научили распознавать синтезированные тексты.

А ещё ИИ пишет абстрактно и вставляет выдуманные факты. Поэтому выявить сгенерированные тексты можно и самостоятельно — достаточно провести фактчекинг. Например, вбить часть текста в поисковик и посмотреть, цитировали ли её авторитетные издания. Если нет, велика вероятность, что новость фейковая.

Лучшую защиту синтезированных текстов могут создать разработчики

Самый эффективный способ вычислить тексты от нейросетей — добавлять в написанные материалы специальный водяной знак, например, последовательность символов, которую не видит обычный пользователь.

По водяному знаку разработчики смогут определять, написан ли текст их нейросетью — так у них появится возможность создать детектор текстовых фейков. Сейчас создатели нейросетей ведут исследования именно в этом направлении.

Эти методы всё ещё не способны защитить от более современных видов атак. Например, мошенник может использовать перифрайзер, чтобы поменять порядок слов в предложении и сделать синтаксис более привычным. Также злоумышленник может перенести водяной знак нейросети на несгенерированный текст — и поставить под сомнение его авторство.

А вы сталкивались с фейками? Что помогло их выявить?

11
6 комментариев

Всё, получается, как с вирусами) Сначала фейк, а потом антифейк

Именно так!

сделай полезную вещь ,а люди найдут как ее использовать в плохих намерениях

Комментарий недоступен

Нам бы не хотелось расставаться, давайте мы все проверим, пришлите, пожалуйста, свои данные в личные сообщения.