Цифровой двойник как угроза: темная сторона дипфейк-реальности

Мошенники научились создавать идеальные подделки видео и голоса, и используют AI технологии в самых разных схемах обмана. Тем не менее, многие люди не знают об этой угрозе. Так, 48% участников опроса «МТС Линк» заявили, что им не известно, что такое дипфейк и, соответственно, нет понимания, почему он может быть опасным.

Источник фото — unsplash.com 
Источник фото — unsplash.com 

Я как руководитель репутационного агентства YouStory Global вижу, что феномен фальшивых видео уже становится проблемой не только из-за мошенничества и вымогания денег, но и в контексте репутационных рисков для брендов и персон.

Что такое дипфейк?

Дипфейк (от англ. deepfake — «глубокая подделка») — это синтетический медиаконтент (видео или аудио), созданный с помощью искусственного интеллекта, главной особенностью которого является высочайший реализм, делающий его практически неотличимым от подлинного материала.

Проще говоря, это видео или аудиозапись, где человек говорит и делает то, чего никогда не делал. В основе технологии часто лежит принцип состязательных сетей (GAN), где одна нейросеть-генератор создает подделку, а вторая — дискриминатор — пытается ее обнаружить, что в итоге приводит к постоянному улучшению качества.

Самые распространенные примеры — видеозвонок от «дочери», которая срывающимся голосом просит срочно перевести деньги, или голосовое сообщение «директора» к сотруднику с требованием передать доступы к корпоративной системе. Также в Сети можно встретить рекламу с дипфейками известным персон, которая вводит в заблуждение потребителей.

Результатом становится подрыв человеческого доверия на всех уровнях, и в этом заключается глобальная опасность.

Схемы мошенничества и манипуляций

По данным опроса «МТС Линк», 19% респондентов уже сталкивались с попыткой обмана через имитацию друзей и родственников, а 18% — с подменой образа руководителя. В 16% случаев людям встречались в Сети дипфейки на известных персон.
В корпоративной сфере риску наиболее подвержены сотрудники, ответственные за финансовые операции. Ярким примером служит инцидент 2019 года в Великобритании, где мошенники с помощью аудиодипфейка голоса генерального директора энергетической компании убедили исполнительного директора перевести 220 тысяч евро на счет мошенников.

Совместное исследование MTS AI и консалтинговой группы Б1, проведенное в начале 2025 года, показало, что каждая пятая российская компания подверглась успешной атаке с применением дипфейков. Чаще всего, это происходило через мессенджеры, прежде всего, Telegram.

Финансовые потери при успешной дипфейк атаке варьируются от нескольких десятков тысяч до нескольких миллионов рублей.

Татьяна Дешкина, IT-компания VisionLabs

Дезинформация и политические риски

По данным АНО «Диалог Регионы», в 2025 году количество обнаруженных в публичном пространстве дипфейков выросло по сравнению с прошлым годом более чем в 4 раза, причём в 79% случаев это были поддельные видео от имени представителей власти.
В фиктивных роликах политики и высокопоставленные чиновники якобы сообщают о чрезвычайных ситуациях, введении несуществующих ограничений, необоснованном повышении налогов и т.д.

Цель всех этих вбросов — ослабление доверия к власти, формирование атмосферы хаоса и неопределённости среди населения.

Для противостояния дипфейк-атакам в России создаются новые институты и механизмы. Так, в октябре 2025 года в Москве прошёл Международный форум «Диалог о фейках 3.0», собравший около 4000 экспертов из более чем 80 стран. В ноябре Международная ассоциация по фактчекингу GFCN провела открытые вебинары по выявлению фейков.
Также в Сети работает профильный информационный ресурс «Лапша Медиа», где можно познакомиться с разоблачениями и анализом общественно опасных фальшивок.

Обратная сторона дипфейка: угроза репутации и кража образа

Кроме прямых, очевидных угроз для общества, технология дипфейков создает репутационные риски для публичных персон, образы которых используют для создания токсичного цифрового контента, рекламы мошеннических продуктов и т.д.

Если дипфейки на политиков и высокопоставленных чиновников чаще всего быстро разоблачаются через официальные ресурсы, то в некоторых других случаях публичный человек может даже не сразу узнать о поддельном контенте со своим участием.

Например, недавно к нам в репутационное агентство YouStory Global обратился ТОП-менеджер крупной международной организации с запросом на удаление из соцсети фейковой видеорекламы якобы с его участием.

Разрешения на использование своего образа в рекламе он не давал, тем более, что в ролике продвигались мошеннические услуги. После переговоров с поддержкой соцсети реклама была остановлена, видео изъято из общего доступа.

Также фальшивые ролики с известными личностями часто становятся инструментом для повышения охватов того или иного «жёлтого» информационного ресурса. В этом случае защитить свою репутацию можно через публичное опровержение фейка, а также удаление неправомерного контента из Сети посредством жалобы или досудебной претензии в адрес ресурса.

Как распознать дипфейк: основные признаки подделки

1. Неестественная мимика — лицо может быть малоподвижным, эмоции не соответствуют речи.

2. Редкое моргание — нейросети плохо воспроизводят естественный ритм моргания.

3. Размытость контуров — особенно в области рта, подбородка и волос.

4. Несовершенная синхронизация — движения губ не точно совпадают со звуком.

5. Артефакты на фоне — размытия, искажения, странные тени.

6. Неестественный цвет кожи — пятна, неравномерность тона.

7. Роботизированная речь — монотонность, странные паузы.

Почему дипфейк может быть опасным — вопрос, который выходит за рамки только финансовых потерь. Технология представляет собой многогранную угрозу, затрагивающую как частные интересы граждан и бизнеса, так и общественную стабильность. В условиях, когда цифровое пространство продолжает трансформироваться, актуальность защиты от подобных рисков будет только расти.

Спасибо за внимание! Буду рада вашим мнениям и комментариям по теме защиты от дипфейков.
Реклама. Рекламодатель — ИП Городничев. ИНН 590849322520. erid: 2Vtzque5Cbk

Начать дискуссию