{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Cложно ли сделать deepfake-видео и можно ли бороться со злоумышленниками, если использовали лицо для поддельного ролика Статьи редакции

Коротко о том, что нужно для deepfake, и борьбе платформ с ложными фото и видео.

18 января проект «Вкладер» рассказал, что мошенники выпустили два deepfake-видео с рекламой супердоходов, скопировав лицо основателя Flocktory и Dbrain Дмитрия Мацкевича. В рекламе его копия приглашает на инвестиционные мастер-классы с обещанием 360% годовых.

Сам же Мацкевич считает, что это «крутое иммерсивное шоу про будущее ИИ, которое уже наступило» и один из первых коммерческих примеров использования deepfake, которых в будущем будет всё больше.

Кадр из deepfake-видео с основателем Dbrain

Что нужно, чтобы сделать deepfake-видео

Существуют открытые и бесплатные нейросетевые приложения с технологией deepfake, которые можно использовать для замены лиц и создания видео с нужным человеком в «главной роли». Самые популярные открытые библиотеки — faceswap и DeepFaceLab.

DeepFaceLab

DeepFaceLab позволяет заменить лицо, голову и возраст человека на видео, а также оптимизировать движение губ под нужные слова. Для работы нужен компьютер с мощной видеокартой и большим объёмом видеопамяти, исходное видео с лицом-источником и целевое видео, на которое будет накладываться нужное лицо.

Разработчики DeepFaceLab опубликовали короткую видеоинструкцию по созданию deepfake

Процесс создания deepface-видео через DeepFaceLab в упрощённом виде:

  • Разбиение обоих видео на кадры и извлечение лиц в виде изображений. Их качество и количество зависят от исходника: чем длиннее видео и выше разрешение, тем лучше будут изображения «захваченного» лица, а затем и готовое видео. Некорректные и нечеткие кадры удаляют.
  • На базе изображений создаются «маски», а пользователь выделяет границы лиц для более естественного наложения.
  • Нейросеть обучается под конкретные случаи: замена лица, головы, убирание фона, сохранение исходных черт лица. Для этого в DeepFaceLab есть несколько параметров, которые необходимо подбирать вручную для максимальной точности ролика.
  • Обученную модель нейросети используют для слияния «созданного» лица с исходными кадрами видео.
  • Готовые deepfake-кадры преобразуют обратно в видео.

Обучение модели нейросети — самая ресурсоёмкая задача, от которой зависит качество deepfake. Чем дольше тренируется нейросеть и чем лучше исходники, тем качественнее получится.

В целом, хотя работа над deepfake и занимает несколько десятков часов, она не требует особых навыков. Достаточно иметь мощный компьютер и время для экспериментов по созданию маски, выбору модели нейросети и её обучения.

Можно ли что-то делать, если злоумышленники использовали лицо

Юридически deepfake-видео не нарушают законов, из-за новизны они находятся в «серой зоне» ответственности, писал The Verge. В России нет законов, регулирующих deepfake.

Перед выборами президента США в 2020 году интернет-платформы обновили правила: во многом запретили использование и публикацию deepfake-видео, а также начали разработку алгоритмов по их определению.

Разработка Microsoft Research по определению deepfake

Но пожаловаться на deepfake можно не везде:

  • На Facebook нельзя явно пожаловаться на deepfake-видео, но можно попробовать пожаловаться на «скам» и «введение в заблуждение». Компания объявила, что сама будет бороться с вредоносными deepfake, которые вводят в заблуждение пользователей или нарушают правила соцсети. Исключения только для юмористических видео и роликов с отредактированным порядком слов.
  • У Instagram нет правил, по которым модерируется и удаляются deepfake-материалы.
  • У «Яндекса» есть специальная форма жалобы на откровенные материалы, в том числе созданные с помощью deepfake. Компания может удалить ссылки на фото и видео в выдаче, если они нарушают права пользователя.
  • «ВКонтакте» удаляет deepfake с «явными изменениями» по запросу пользователя в поддержку, менее очевидные случаи могут требовать дополнительной проверки. Если подобные ролики используются для шантажа или относятся к порнографии, нужно сообщить о них модераторам через кнопку «Пожаловаться», рассказали vc.ru в компании.
  • В Twitter нельзя отправить запрос на удаление твита с deepfake, хотя официально соцсеть запретила deepfake-видео и другие манипуляции с медиа и обещает помечать подобное содержимое.
  • У YouTube более «мягкие» правила: видеохостинг пообещал удалять связанные с выборами deepfake-ролики, не уточнив про возможные мошеннические видео. В апреле 2020 года сервис, к примеру, не удалил deepfake-ролик, использующий голос репера Jay-Z, несмотря на жалобу артиста. YouTube объяснил это тем, что «запросы на удаление были неполными».
  • У Google есть специальная форма, через которую можно удалить «недобровольную синтетическую порнографию». Также компания с 2019 года разрабатывает инструменты по распознаванию deepfake.
  • Microsoft также развивает технологии по распознаванию deepfake, а Adobe предлагает сохранять в медиафайле полную историю создания и изменений, чтобы любой желающий мог понять, кто и как его менял.
0
5 комментариев
Дмитрий Меркулов

Версия: никакой проблемы в таких «фейках» нет. Это одно из качеств современного мира. Тебя могут «подделать», в любом виде. Это значит, что нужно учиться воспринимать не «факты»(именно факты можно подделать), а законы или принципы, по которым производятся эти факты. Еще это можно назвать «стиль». 
Представьте, что если такой «фейк» сделали на вашу «маму»(например) какие будут ваши действия? Скорее всего вы скажите, что «это не она, она не могла так сказать/сделать», и пойдёте дальше. То есть вы очень Хорошо знаете свою «маму», но если разбираться, а что это значит, выяснится, что вы знаете буквально ее «стиль». И вы примерно предполагаете что она может сказать, а что нет. То есть все сказанное, вы как будто пропускаете сквозь такой «фильтр-стиль», который становится для вас критерием истины, а не те факты, которые вам предлагаются. И только факты прошедшие этот фильтр имеют право на жизнь. 
Это тот мир, в котором мы уже живем. И жизнь в этом мире требует мыслительных усилий. Именно это качество поделит мир на «элиту» и «массы». 

Ответить
Развернуть ветку
Romeo Dart

Александр, одно из качеств современного мира - доступность общения в онлайне с самыми разными людьми, в том числе не слишком хорошо или вовсе не известными тебе IRL. Наработка анализа по "стилю" происходит так же, как обучается нейросеть - на основании прошлого опыта. А откуда его взять, если речь не идёт о Вашей "маме"?

Ответить
Развернуть ветку
Александр Буньков

Прежде чем официально кидать предьяву, полагая, что именно ваше лицо было использовано в дипфейке помните: там мог сниматься атер/актрисса очень похожий на вас. И в этом случае получите обратный иск от него по набору статей.

Ответить
Развернуть ветку
N N

Ну,, тут-то хотя бы не врите. Вынесите этот "набор статей" на обозрение, поржём. 

Ответить
Развернуть ветку
Александр Буньков

Учите матчасть...

Ответить
Развернуть ветку
2 комментария
Раскрывать всегда