{"id":14276,"url":"\/distributions\/14276\/click?bit=1&hash=721b78297d313f451e61a17537482715c74771bae8c8ce438ed30c5ac3bb4196","title":"\u0418\u043d\u0432\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u043b\u044e\u0431\u043e\u0439 \u0442\u043e\u0432\u0430\u0440 \u0438\u043b\u0438 \u0443\u0441\u043b\u0443\u0433\u0443 \u0431\u0435\u0437 \u0431\u0438\u0440\u0436\u0438","buttonText":"","imageUuid":""}

Технология deepfake: крутой тренд или опасная технология?

В сети всё чаще появляются ролики, где используется технология Deepfake. Пользователи в соцсетях пародируют знаменитостей, а бренды создают ролики, используя технологию, с целью повышения лояльности клиентов и уменьшения затрат.

Так, например, компания KFC отказалась от сотрудничества с актерами и полностью перешла на использование сгенерированного нейросетью образа полковника Сандерса — основателя KFC, который лично рассказывал о новых функциях и консультировал о продукте. Deepfake позволил компании не только значительно сэкономить рекламный бюджет, но и повысить лояльность клиентов.

Однако с момента появления технология вызывает множество вопросов касательно своей легитимности и опасности. Многие бренды относятся к технологии с недоверием, их можно понять, ведь 96% дипфейков — порноролики. К тому же часто дипфейки используют для распространения дезинформации, фальсификации и мошенничества.

Негативные примеры дипфейков

Так весной 2019 года в интернете опубликовали дипфейк, на котором спикер палаты представителей США Нэнси Пелоси выглядит пьяной и больной, не может связать двух слов в студии. Республиканские эксперты и политики немедленно принялись критиковать спикера, почти начался скандал. Лишь через несколько дней оказалось, что речь Пелоси была сгенерирована ИИ.

Во многих странах использование дипфейков уже признано незаконным. Так в 2019 в Калифорнии распространение таких изображений было признано нелегальным, а в Китае с января 2020 года публикация дипфейков вовсе является уголовным преступлением.

Дипфейки в России

Однако в России и многих других странах мира пользователи продолжают массово скачивать популярные приложения для создания дипфейков такие как Doublicat и FaceApp. Более того Вконтакте недавно создала дипфейк-технологию для UGC-контента, где нейросети в один клик заменят лица пользователей на лица селебрити в VK Клипах и VK Видео.

Не смотря на то, что качество дипфейков пока вполне позволяет отличить оригинальное видео от видео созданного нейросетью, Вконтакте помечаются специальным вотермарком при экспорте на внешние площадки, чтобы зрители смогли без проблем отличить дипфейк-видео от роликов с реальными звёздами. Кроме того пользователи получают дополнительные уведомления о том, что созданные при помощи технологии «Дипфейк» видео носят исключительно развлекательный характер.

К сожалению, контролировать и регулировать распространение и использование подобных программ очень сложно. На данный момент точного закона, который мог бы генерировать технологию нет, поэтому споры вокург вреда и пользы дипфейков всё ещё актуальны.

Как думаете, имеет ли будущее deepfake в рекламной индустрии? Или всё же эта технология в скором времени окажется под запретом? Пишите в комментариях

Больше интересных digital-обсуждений можно в чате команды Hate Agency, где мы строим комьюнити специалистов из сферы digital 📎✨

0
3 комментария
Old Papay

я бы не сказал что это опасно, есть софт позволяющий точно узнать использовалась ли такая технология в создании видео. А так отличная вещь, для развлекухи, для кинематографа и прочее...

Ответить
Развернуть ветку
Андрей Мартынов

Круто и опасно - близнецы-братья

Ответить
Развернуть ветку
Рама

Хорошее приложение данного типа Reface App.

Ответить
Развернуть ветку
0 комментариев
Раскрывать всегда