{"id":13711,"url":"\/distributions\/13711\/click?bit=1&hash=993ce7f10a29e09ef6007450140ef5fcebecd55805799940a93c3efe78cce5e3","title":"\u0411\u043e\u0438\u0442\u0435\u0441\u044c \u043d\u0435\u0434\u043e\u043e\u0446\u0435\u043d\u0451\u043d\u043d\u044b\u0445 \u0431\u0443\u043c\u0430\u0433? \u0412\u043e\u0442 \u043f\u0430\u0440\u0430 \u0441\u043e\u0432\u0435\u0442\u043e\u0432 \u043e\u0442 \u0438\u043d\u0432\u0435\u0441\u0442\u043e\u0440\u043e\u0432","buttonText":"\u0427\u0438\u0442\u0430\u0442\u044c","imageUuid":"9ff620a4-3fae-5002-9694-5d10fe8c5bbf","isPaidAndBannersEnabled":false}

Deepfake — угроза или новая веха развития видеоконтента?

Deepfake — «Казнить нельзя помиловать»

Технология замены лица на видео с помощью машинного обучения — (Deepfake, от англ. Deep — глубокое обучение, Fake — подделка), действительно ли это цифровая угроза или новые интересные возможности? Постараемся разобраться в этой статье.

Deepfake как инструмент для обмана

Само название технологии, включая слово «Fake» недвусмысленно намекает нам на то, что с её помощью можно легко обманывать и вводить в заблуждение (это особенно актуально сейчас, в эпоху фейковых новостей). Люди очень сильно доверяют видео, ведь до недавнего времени подделать его было очень сложно. Даже на текущий момент, видео можно использовать как доказательство в суде (долго ли это продлится с развитием технологий?). Уверены ли Вы что сможете распознать дипфейк, так ли это просто? Именно доверием к видеоматериалам, часто пользуются мошенники. Путем создания видео, где известные и имеющие доверие люди (лидеры мнений), говорят что-то приносящее выгоду злоумышленникам и вводящее в заблуждение. Например, относительно недавно, скамерам удалось привлечь крупные средства используя лицо Олега Тинькова, подробнее в этой статье:

Мошенники создали дипфейк с Олегом Тиньковым для рекламы поддельной страницы «Тинькофф Инвестиций» Статьи редакции

В видео «Тиньков» предлагает бонус в 50% к любой сумме вложения.

И это далеко не единичный случай. Но всё ли так плохо?

Deepfake как перспективная технология

А есть ли что-то хорошее? Несмотря на большой потенциальный вред технологии, возможность быстро подменять лицо на видео, разумеется можно использовать не только во вред. К примеру, хотели бы Вы увидеть Ваш любимый фильм с Вами в главной роли, звучит заманчиво не правда ли? Или возможно, Вы хотели бы пообщаться по видеосвязи с умершими родственниками? Но потенциальная польза ограничивается далеко не только этим. Давайте представим возможное, неотдаленное будущее, Вы заходите в довольно популярный, Ваш любимый видеохостинг (Да, да, я про Youtube :D), заходя на любое видео, Вы можете в пару кликов сменить повествующее лицо. Раздражает лицо автора? Не беда, смените его на любимого актера! Почему бы не посмотреть, как Дуэйн Скала Джонсон учит готовить капкейки :D или как Ефремов рассказывает о вреде алкоголя :D

На взгляд команды проекта «Faceto», как и любую другую технологию, замену лица на видео, нельзя рассматривать только с одной стороны. Каждую достаточно развитую технологию, можно применять и для вреда, и для пользы. Споры касательно этого, напоминают недавние дискуссии на тему Криптовалют, которые несмотря на изначальный замысел применяют как во злом, так и в благо. Сколько денег отмывается через распределенную сеть, за то скольким людям она позволила сделать казалось бы невозможные переводы и скольким сохранила (или нет :D) капитал. Лично наша команда, почти полностью ограничивает незаконное применение создаваемых нами дипфейков, путем наложения безобидного водяного знака.

А что Вы думаете об этой технологии? Поделитесь своим мнением в комментариях

Что такое дипфейк?
Обман и угроза, казнить :D
Перспективная технология, помиловать
Развивающийся инструмент, который нуждается в регулировании
Показать результаты
Переголосовать
Проголосовать

В следующей статьей, мы рассмотрим способы распознавания фейковых видео и методы борьбы с ними.

0
2 комментария
Zloy Sniper

Наверняка технология найдет место в чем-то действительно полезном, ибо смена лица ведущего - сомнительная фича и на полезность не тянет. На данный момент функция уже используется во вред, но если разработают сертификат безопасности (подлинности видео), типа SSL для сайтов, то станет безопаснее. Впрочем мы живем во времена фейков, имитаций и одноразовости. Все можно подделать, а подлинное назвать фейком. И оба способа используются негодяями разных масштабов. Нам же надо принимать фейковую реальность (не удержался от каламбура) и учиться жить в ней.

Ответить
Развернуть ветку
Faceto
Автор

Благодарю за комментарий. Как раз о способах распознавания дипфейка, будет следующая статья!

Ответить
Развернуть ветку
Читать все 2 комментария
null