Борьба с дипфейками: когда ждать первых успехов

Добрый день!

Я - Павел Патрикеев, сооснователь юридического сервиса для предпринимателей в сфере IT и электронной коммерции «Патрикеев и партнеры» хочу затронуть сегодня интересную, но сложную тему, в той или иной мере касающуюся абсолютно каждого из нас – дипфейки.

Борьба с дипфейками: когда ждать первых успехов

Реальность или иллюзия?

Именно так ощущает себя человек, столкнувшийся с дипфейком – методикой создания голоса или изображения с помощью ИИ. Говоря простыми словами, убедительной и весьма искусной подделкой, которую очень активно используют в разных сферах. Она весьма эффективна в киноиндустрии, сегментах развлечений, рекламы и даже обучения. И хотя положительный опыт использования этой технологии обширен, больше всего о ней говорят в связи с возможностями, которые она открывает для мошенников.

К примеру, в 2019 году с помощью новой технологии из британского банка украли $243 тыс. Деньги так и не были найдены, а спустя 2 года на весь мир стал известен другой случай мошенничества в особо крупных размерах. В ОАЭ, как предполагается группой лиц, из одного из крупнейших банков страны вывели $35 млн. Злоумышленники использовали клон голоса директора банковского учреждения.

С каждым годом подобных случаев все больше – за период с 2022 по 2023 годы они выросли на 3000%, но до сих пор юридическая и этическая стороны применения дипфейков остаются не определены. Незаконное применение технологии должно нести за собой юридические последствия и в разных странах мира по-своему пытаются решить данную проблему. Но вот, насколько успешно – это большой вопрос.

Как обстоят дела в мире

Дипфейки, по сути, открыли новую страницу в истории кибербезопасности. И большинство стран сейчас находится на этапе разработки законодательных норм для регулирования этой технологии.

Китай

Работа над законодательством в сфере интернет-безопасности ведется в стране уже более 7 лет. За это время был принят Закон о кибербезопасности, в котором выделен отдельный свод правил для регулировки стремительно развивающейся дипфейк-технологии. В него включены такие пункты как:

  • обязательная маркировка всего контента, созданного через методику дипфейков;
  • идентификация интернет-платформами пользователей, распространяющих подобный контент;
  • удаление подозрительного контента и оповещение о нарушениях в надзорные органы.

США

До текущего года в стране регулирование применения дипфейков только обретало контуры. Каждый штат самостоятельно устанавливал нормы и определял степень этичности использования подделок, но в 2024 были вынесены новые инициативы на правительственном уровне. Они содержат запрет на распространение определенного вида дипфейков на всей территории США

У нас сейчас

В России механизмы регулирования дипфейков пока ограничиваются гражданским законодательством. ГК РФ охраняет право каждого человека на:

  • свой образ и любое изображение;
  • персональные данные.

Поэтому в правовом поле привлечь распространителя дипфейка к ответственности можно лишь за использование образа человека без его согласия. Также существует нюанс с правами на созданную подделку. Право на нее принадлежит только автору, и он должен дать согласие на дальнейшее тиражирование объекта интеллектуальной собственности.

Одно из показательных дел последних лет - иск в арбитражный суд ООО «Рефейс Технолоджис» к ООО «Бизнес-аналитика» о взыскании компенсации за нарушение исключительного права на видеоролик в размере 500 000 руб. Ролик с использованием лица известного актера Киану Ривза был создан по технологии дипфейк истцом. Ответчик скачал ролик и применил в своих целях. Суд признал права ООО «Рефейс Технолоджис» на созданный объект, но в этом деле не были затронуты вопросы согласия самого актера на использование его ролика.

Иным путем пошла в 2021 году компания “Мегафон”. Для серии рекламных роликов было использовано лицо Брюса Уиллиса, но с разрешения самого актера. Компания подписала с ним контракт и он лично отсматривал все материалы, внося корректировки в сценарии. Это - один из редчайших примеров юридически грамотного применения технологии дипфейков.

В любом случае действующих законодательных норм недостаточно, чтобы защитить граждан и бизнес от мошеннических действий через методику синтеза голоса или изображения.

На перспективу

В 2024 году на рассмотрение внесено несколько законодательных инициатив, которые в случае принятия станут базой для привлечения к уголовной ответственности за дипфейки:

  • Поправки к статье 272.1 Уголовного кодекса РФ (приняты в 1-ом чтении). Согласно им, уголовная ответственность может наступить за ряд незаконных действий с персональными данными, к которым относят и изображения людей: передача, сбор, хранение и создание площадок, содержащих ПД.
  • Поправки к статьям 128 "Клевета", 158 "Кража", 159 "Мошенничество", 163 "Вымогательство" и 165 "Причинение имущественного ущерба путем обмана или злоупотребления доверием". За введение в заблуждение с помощью синтезированного контента предполагается лишение свободы на срок до 7 лет либо в зависимости от тяжести деяния штраф в сумме до 1,5 миллионов рублей.
  • Поправки к статье 63 УК РФ. Использование в преступлении контента, созданного с помощью ИИ, может вскоре стать отягчающим обстоятельством.

Также есть предложения по обязательной маркировке фейковых объектов. На данный момент инициатива уже сформирована и планируется рассматриваться на осенней сессии в Госдуме. Ее главный вдохновитель - Антон Горелкин, заместитель председателя комитета Госдумы по информационной политике, информационным технологиям и связи.

Резюмирую сказанное выше – во всем мире стремительно увеличиваются риски стать жертвой с использованием дипфейка, но при этом правовое регулирование пока находится в зачаточном состоянии.

И здесь важно понимать, что законодательные нормы в сегменте кибербезопасности все же медленно, но меняются. А это ведет к тому, что можно невольно перейти в категорию нарушителей закона, используя по роду своей профессиональной деятельности образ реального человека или даже нескольких разных людей.

Если вы узнали, что ваше синтезированное изображение незаконно распространяется, или хотите заранее обезопасить себя, применяя в работе чужие образы, без консультации опытного юриста не обойтись! Мой Телеграм @Pavel_Patrikeev - рассмотрю вашу ситуацию и подробно проконсультирую, как выйти из нее с минимальными потерями и действовать строго в правовом поле. Бесплатно.

77
66
11
8 комментариев

Теперь на любую свою неприличную фотку можно сказать, что дипфейк. Так что не надо с ними бороться))

4
Ответить

Отличная идея)) А то бедных госслужащих затравили за фото в купальниках)) А тут - да это недоброжелатели взломали и дипфейк разместили))

3
Ответить

Отличная идея

1
Ответить

так что делать-то? не пользоваться нейросетями для создания фотореалистичных изображений — вдруг в живого человека попадёшь?

1
Ответить

"Также есть предложения по обязательной маркировке фейковых объектов."

Это как, интересно?

1
Ответить

Никому нельзя верить!

1
Ответить

А если брать изображение Петра | или Екатерины Великой, то никто же не предъявит использование личности?)) С другой стороны сделать документальный фильм с реальными историческими личностями можно в любом нужном сценарии и особо не просвещенный зритель может увиденные факты принять как истину. Вот это тоже надо регулировать.

Ответить