Deepfake: Что скрывается за технологией подмены лиц и как распознать?

С развитием искусственного интеллекта набирает обороты технология “Deepfake”, которая способна создать реалистичные аудио, видео и изображения. Несмотря на обширные возможности применения в различных сферах, очень часто используется в недобросовестных целях и для распространения ложной информации. В данной статье рассмотрим как технология "Deepfake" работает, где используется, а также научимся её распознавать для защиты от потенциального обмана.

Deepfake: Что скрывается за технологией подмены лиц и как распознать?
Deepfake: Что скрывается за технологией подмены лиц и как распознать?

Что такое “Deepfake”?

Deepfake (с англ. “deep” от технологии “deep learning” и “fake” “подделка”) - это фото, видео и аудиоматериалы, созданные при помощи искусственного интеллекта и машинного обучения, которые способны воссоздать мимику лица, естественные движения тела и даже имитировать голос.

Она способна частично или полностью копировать черты лица людей, их движения, голоса настолько правдоподобно, что отличить подделку от оригинала практически невозможно.

Для создания подобного контента необходимо провести тренировку алгоритмов на массивах данных, включающих изображения, видео и аудиозаписи. С помощью методов глубокого обучения (deep learning) данные алгоритмы анализируют и имитируют человеческие черты лица и его поведение, и затем создают новый контент, комбинируя или накладывая существующие визуальные и аудио материалы.

Где применяется технология “Deepfake”?

Данная технология может быть использована в сфере развлечений, например, в кино, анимации или при создании видеоигр, а также в образовательных целях. Однако, её неправильное использование может понести риски по безопасности.

Давайте рассмотрим некоторые примеры её применения:

  • Распространение ложных новостей. Генерация видео или аудио для создания ложных заявлений политиков, знаменитостей и других известных личностей с целью искажения общественного мнения и создания спекуляций.
  • Кибербуллинг. Deepfake используют для создания фото и видео человека без его авторизированного согласия для запугивания и манипулирования.
  • Кража персональных данных. Способность технологии копировать с высокой точностью внешность и голос человека может быть использована для кражи личных данных и идентичности, чтобы выдать себя за кого-то в Интернете, (например, за знаменитость) для осуществления мошеннических схем.
  • Охрана и безопасность. Поскольку Deepfake создаёт материалы которые сложно отличить от оригинала, это может поставить под угрозу системы безопасности и наблюдения и затруднить борьбу с организованной преступностью.

Как можно распознать Deepfake?

По мере стремительного развития технологии Deepfake, становится необходимым умение распознать, а также разработка методы противодействия распространению поддельных фото и видео.

Исследователи работают над выявлением аномалий в видео, созданных с этой технологией, но, к сожалению, распознать на 100% на данный момент не предоставляется возможным.

Однако, Массачусетский технологический институт (MIT) опубликовал статью в которой дал рекомендации по обнаружению видео и изображений созданных с deepfake.

Особое внимание нужно обращать на элементы лица, такие как:

  • щёки и лоб;
  • движение глаз, бровей и ресниц;
  • волосы;
  • наличие усов и родинок;
  • размер и цвет губ.

Кроме того, стоит проверить:

  • детализацию рук (очень часто они имеют неестественную форму);
  • наличие фото и видео эффектов;
  • изменение цвета кожи (например, если лицо и другие части тела имеют один и тот же цвет);
  • моргание глаз (из-за быстрых движений глаз количество четких кадров пригодных для обучения нейросети, весьма ограничено, что затрудняет эффективное обучение алгоритмов).

Как вы можете увидеть, противостояние рискам связанных с Deepfake требует комплексного подхода. Поэтому крайне необходимо повышать цифровую грамотность в обществе и просвещать о том, как поддельные фото и видео используются для манипуляций в различных сферах. Это сможет научить критически оценивать источники и вовремя распознать угрозу, предотвращая таким образом распространение недостоверной информации.

А что думаете вы об этой технологии? Несёт ли она, по-вашему мнению опасность или за ней стоит будущее? Поделитесь вашим мнением в кокмментариях!

По всем вопросам: @rpa_solutions

Поговорить с нашим умным ботом: @Airpa_bot

33
11
Начать дискуссию