Цифровой двойник как угроза: темная сторона дипфейк-реальности
Мошенники научились создавать идеальные подделки видео и голоса, и используют AI технологии в самых разных схемах обмана. Тем не менее, многие люди не знают об этой угрозе. Так, 48% участников опроса «МТС Линк» заявили, что им не известно, что такое дипфейк и, соответственно, нет понимания, почему он может быть опасным.
Я как руководитель репутационного агентства YouStory Global вижу, что феномен фальшивых видео уже становится проблемой не только из-за мошенничества и вымогания денег, но и в контексте репутационных рисков для брендов и персон.
Что такое дипфейк?
Дипфейк (от англ. deepfake — «глубокая подделка») — это синтетический медиаконтент (видео или аудио), созданный с помощью искусственного интеллекта, главной особенностью которого является высочайший реализм, делающий его практически неотличимым от подлинного материала.
Проще говоря, это видео или аудиозапись, где человек говорит и делает то, чего никогда не делал. В основе технологии часто лежит принцип состязательных сетей (GAN), где одна нейросеть-генератор создает подделку, а вторая — дискриминатор — пытается ее обнаружить, что в итоге приводит к постоянному улучшению качества.
Самые распространенные примеры — видеозвонок от «дочери», которая срывающимся голосом просит срочно перевести деньги, или голосовое сообщение «директора» к сотруднику с требованием передать доступы к корпоративной системе. Также в Сети можно встретить рекламу с дипфейками известным персон, которая вводит в заблуждение потребителей.
Результатом становится подрыв человеческого доверия на всех уровнях, и в этом заключается глобальная опасность.
Схемы мошенничества и манипуляций
По данным опроса «МТС Линк», 19% респондентов уже сталкивались с попыткой обмана через имитацию друзей и родственников, а 18% — с подменой образа руководителя. В 16% случаев людям встречались в Сети дипфейки на известных персон.
В корпоративной сфере риску наиболее подвержены сотрудники, ответственные за финансовые операции. Ярким примером служит инцидент 2019 года в Великобритании, где мошенники с помощью аудиодипфейка голоса генерального директора энергетической компании убедили исполнительного директора перевести 220 тысяч евро на счет мошенников.
Совместное исследование MTS AI и консалтинговой группы Б1, проведенное в начале 2025 года, показало, что каждая пятая российская компания подверглась успешной атаке с применением дипфейков. Чаще всего, это происходило через мессенджеры, прежде всего, Telegram.
Финансовые потери при успешной дипфейк атаке варьируются от нескольких десятков тысяч до нескольких миллионов рублей.
Дезинформация и политические риски
По данным АНО «Диалог Регионы», в 2025 году количество обнаруженных в публичном пространстве дипфейков выросло по сравнению с прошлым годом более чем в 4 раза, причём в 79% случаев это были поддельные видео от имени представителей власти.
В фиктивных роликах политики и высокопоставленные чиновники якобы сообщают о чрезвычайных ситуациях, введении несуществующих ограничений, необоснованном повышении налогов и т.д.
- В ноябре 2025 года в Сети завирусилось видео, в котором глава Центробанка Эльвира Набиуллина призвала граждан самостоятельно копить деньги на пенсию.
- В другом видео глава Минфина Антон Силуанов пообещал тюремные сроки за критику в адрес государственных органов.
- Ещё один пример: видеообращение главы Сбербанка, в котором сообщалось о блокировке всех денежных переводов свыше 50 тыс. рублей начиная с 1 января 2026 года.
Цель всех этих вбросов — ослабление доверия к власти, формирование атмосферы хаоса и неопределённости среди населения.
Для противостояния дипфейк-атакам в России создаются новые институты и механизмы. Так, в октябре 2025 года в Москве прошёл Международный форум «Диалог о фейках 3.0», собравший около 4000 экспертов из более чем 80 стран. В ноябре Международная ассоциация по фактчекингу GFCN провела открытые вебинары по выявлению фейков.
Также в Сети работает профильный информационный ресурс «Лапша Медиа», где можно познакомиться с разоблачениями и анализом общественно опасных фальшивок.
Обратная сторона дипфейка: угроза репутации и кража образа
Кроме прямых, очевидных угроз для общества, технология дипфейков создает репутационные риски для публичных персон, образы которых используют для создания токсичного цифрового контента, рекламы мошеннических продуктов и т.д.
Если дипфейки на политиков и высокопоставленных чиновников чаще всего быстро разоблачаются через официальные ресурсы, то в некоторых других случаях публичный человек может даже не сразу узнать о поддельном контенте со своим участием.
Например, недавно к нам в репутационное агентство YouStory Global обратился ТОП-менеджер крупной международной организации с запросом на удаление из соцсети фейковой видеорекламы якобы с его участием.
Разрешения на использование своего образа в рекламе он не давал, тем более, что в ролике продвигались мошеннические услуги. После переговоров с поддержкой соцсети реклама была остановлена, видео изъято из общего доступа.
Также фальшивые ролики с известными личностями часто становятся инструментом для повышения охватов того или иного «жёлтого» информационного ресурса. В этом случае защитить свою репутацию можно через публичное опровержение фейка, а также удаление неправомерного контента из Сети посредством жалобы или досудебной претензии в адрес ресурса.
Как распознать дипфейк: основные признаки подделки
1. Неестественная мимика — лицо может быть малоподвижным, эмоции не соответствуют речи.
2. Редкое моргание — нейросети плохо воспроизводят естественный ритм моргания.
3. Размытость контуров — особенно в области рта, подбородка и волос.
4. Несовершенная синхронизация — движения губ не точно совпадают со звуком.
5. Артефакты на фоне — размытия, искажения, странные тени.
6. Неестественный цвет кожи — пятна, неравномерность тона.
7. Роботизированная речь — монотонность, странные паузы.
Почему дипфейк может быть опасным — вопрос, который выходит за рамки только финансовых потерь. Технология представляет собой многогранную угрозу, затрагивающую как частные интересы граждан и бизнеса, так и общественную стабильность. В условиях, когда цифровое пространство продолжает трансформироваться, актуальность защиты от подобных рисков будет только расти.
Спасибо за внимание! Буду рада вашим мнениям и комментариям по теме защиты от дипфейков.
Реклама. Рекламодатель — ИП Городничев. ИНН 590849322520. erid: 2Vtzque5Cbk