Маркировка ИИ-контента и регулирование искусственного интеллекта: зарубежный опыт

Маркировка ИИ-контента и регулирование искусственного интеллекта: зарубежный опыт

Предыстория

С 1 сентября 2025 года в Китае вступили в силу жёсткие правила игры для всех создателей контента, созданного ИИ. Государство решило, что пользователь всегда должен знать, имеет ли он дело с творением человека или машины.

Считаю, это нужно знать всем, кто смотрит и создает контент. Также, в тему ИИ, разобрали ключевые моменты и тенденции регулирования отношений в сфере искусственного интеллекта в некоторых зарубежных странах.

Что нужно маркировать?

Всё: текст, картинки, аудио, видео, целые виртуальные среды.

Два способа маркировки

  • Явно (видимо для пользователя): например, пометка «Сгенерировано ИИ» в начале видео, водяной знак на изображении, голосовая подсказка в аудио.
  • Неявно (скрыто в метаданных файла): цифровые водяные знаки и информация об авторе, которые можно проверить технически.

Кого обязывают осуществлять маркировку?

Правила касаются не только гигантов вроде Baidu или Tencent. Под удар попадают:

  • Создатели AI-сервисов (генерирующие текст, изображения и т.д.)
  • Платформы-распространители (соцсети, медиа, агрегаторы)
  • Даже обычные пользователи! Теперь, если вы публикуете (в Китае) ИИ-генеренный пост, вы обязаны его маркировать.

Самое интересное для китайских платформ

Правила предписывают соцсетям и другим площадкам проверять весь загружаемый контент на предмет маркировки. Если её нет, но контент пахнет ИИ — нужно ставить пометку «подозревается в создании ИИ». Фактически, это делает платформы ответственными за скрытый ИИ-контент.

Жёсткая позиция по авторству

Любая попытка удалить, подделать или скрыть маркировку незаконна. Также запретили создавать инструменты для такого удаления.

Ну и наконец.

Почему это важно даже за пределами Китая?

  • Тренд на прозрачность. Китай — один из первых, кто системно подошёл к проблеме на государственном уровне. Вполне вероятно, что другие страны (особенно с жёстким регулированием интернета) последуют его примеру.
  • Борьба с дезинформацией. Это прямой ответ на риски дипфейк, фейковых новостей и мошенничества. Власти хотят, чтобы у любого контента был цифровой след.
  • Новые обязанности для бизнеса. Любой проект, связанный с ИИ и имеющий аудиторию в Китае, должен будет встроить инструменты для маркировки и проверки. Это новые затраты и сложности.

Вывод: Это не просто бюрократия. Это фундаментальный сдвиг в подходе к цифровой информации. Власти хотят сделать невидимые до сих пор процессы генерации контента видимыми и контролируемыми.

Данные меры стали закономерным этапом в развитии нормативно-правового регулирования КНР в сфере искусственного интеллекта. Основой для них послужила реализация «Плана развития искусственного интеллекта нового поколения», принятого в июле 2017 года. План включает три этапа:

  • первый этап (до 2020 года) — достижение Китаем конкурентоспособных позиций на мировом рынке ИИ;
  • второй этап (до 2025 года) — прорыв в области теоретических исследований и активное внедрение ИИ в различные секторы экономики;
  • третий этап (до 2030 года) — завоевание КНР мирового лидерства в области искусственного интеллекта.

Важным шагом стало принятие в 2021 году пакета нормативно-правовых актов. Они заложили основы регулирования цифровой среды и ИИ:

  • Закон КНР о безопасности данных (действует с 1 сентября 2021 года);
  • Закон КНР о защите личной информации (вступил в силу с 1 ноября 2021 года);
  • Регламент о защите безопасности критической информационной инфраструктуры (действует с 1 сентября 2021 года).

Кроме того, ранее в Китае утвердили документы, касающиеся этических аспектов использования искусственного интеллекта. Это подчеркивает комплексный и многоуровневый подход государства к формированию правового поля в данной области.

Регулирование ИИ и маркировки контента в странах Европейского Союза

В развитии европейского регулирования искусственного интеллекта можно выделить два ключевых этапа:

1. Этап формирования концептуальных основ (2016–2021 гг.) На данном этапе заложили фундаментальные принципы будущего регулирования. Основное внимание уделялось широким общественным обсуждениям, разработке и публикации программных документов а также актов «мягкого права» (soft law). К ним относятся этические руководства и стратегии развития доверенного ИИ.

2. Этап законодательного оформления (2021–2026 гг.). Этот период характеризуется переходом от концептуальных основ к созданию нормативно-правовой базы. А именно — актов «жесткого права» (hard law). Ключевым результатом этапа стало принятие Европейского закона об искусственном интеллекте (AI Act). Он заложил основы для последующего применения и регулирования.

Ожидается, что после 2026 года начнется новый этап. Он будет связан с практической имплементацией, корректировкой и дальнейшим развитием нормативной базы.

Закон об искусственном интеллекте (AI Act)

В 2024 году Европейский союз принял знаковый Закон об искусственном интеллекте (AI Act). Он стал первым в мире всеобъемлющим правовым актом, целиком посвященным регулированию ИИ. Официально документ вступает в полную силу 2 августа 2026 года.

В преамбуле Закона закрепили ключевую идею, лежащая в основе регуляторного подхода ЕС. Наряду с колоссальным позитивным потенциалом технологии искусственного интеллекта существует значительный риск его использования. Законодатель прямо указывает на то, что ИИ может быть превращен в мощный инструмент для манипулирования общественным мнением, эксплуатации уязвимостей и усиления систем социального контроля.

Для противодействия этим рискам и обеспечения централизованного надзора в структуре Европейской комиссии учредили Европейское управление по искусственному интеллекту. На этот наднациональный орган возложили критически важные функции:

  • обеспечение единообразного применения и имплементации общих правил на территории всего Единого рынка;
  • выступление в роли центрального регулятора для моделей ИИ общего назначения (GPAI);
  • координация деятельности национальных компетентных органов.

Еще одним важным элементом Закона является введение обязательной маркировки контента, генерируемого или существенно модифицированного с помощью ИИ. Данная мера направлена на повышение прозрачности для конечных пользователей и борьбу с распространением дезинформации.

За несоблюдение положений AI Act законодатель предусмотрел строгую системуа штрафных санкций. Для компаний-нарушителей установлены значительные финансовые последствия. Штрафы могут достигать до 35 млн евро или 7% от глобального годового оборота — в зависимости от того, какая сумма окажется выше. Подобный подход призван стимулировать добросовестное соблюдение установленных требований.

Национальное регулирование ИИ: Италия прокладывает собственный путь в рамках европейских правил

В сентябре 2025 Италия утвердила всеобъемлющий национальный закон, регулирующий использование искусственного интеллекта, став таким образом первой страной-членом ЕС, принявшей подобный акт. Данную законодательную инициативу, инициированную правоцентристским правительством Джорджии Мелони, разработали в соответствии с общеевропейским AI Act. При этом, закон содержит ряд более строгих и специфичных мер.

Ключевой философией документа, как заявили власти, является продвижение «ориентированного на человека, прозрачного и безопасного использования ИИ». При этом, с акцентом на инновации, кибербезопасность и защиту приватности. Закон направлен на создание «итальянского пути» развития и управления искусственным интеллектом. Такой путь, по словам премьер-министра Мелони, должен реализовывать свой потенциал «в рамках этических норм, ориентированных на человека, его права и потребности».

Ключевые положения итальянского закона об ИИ:

  1. Уголовная ответственность: Ввели одни из самых строгих санкций в ЕС за злоупотребления при использовании ИИ. Незаконное создание или распространение сгенерированного ИИ-контента (например, дипфейков) с целью причинения вреда карается лишением свободы на срок от одного до пяти лет.
  2. Усиление наказаний: Предусмотрели ужесточенные меры ответственности за использование ИИ для совершения преступлений, таких как мошенничество и кража личных данных.
  3. Защита несовершеннолетних: Для лиц младше 14 лет доступ к системам ИИ будет возможен только при наличии явного согласия родителей (parental consent). Это направлено на защиту уязвимых категорий пользователей.
  4. Регулирование в ключевых секторах: Закон ужесточает требования к прозрачности и человеческому надзору за применением ИИ в чувствительных областях, включая здравоохранение, образование, правосудие и спорт.
  5. Авторское право: Установили, что произведения, созданные с помощью ИИ, подлежат защите авторским правом только при условии значительного творческого вклада человека. Анализ данных (text and data mining) разрешили преимущественно для контента, не защищенного копирайтом, или в научных целях уполномоченными учреждениями.
  6. Институциональный надзор: Контроль за соблюдением законодательства возложили на Агентство цифровой Италии и Национальное агентство по кибербезопасности.

Для поддержки национального технологического суверенитета закон предусматривает выделение до 1 млрд евро через государственный венчурный фонд. Сферы финансирования: компании в сфере ИИ, кибербезопасности и телекоммуникаций. Однако, как отмечают критики, эти инвестиции существенно уступают объемам финансирования в США и Китае.

Как заявил Алессио Бутти, заместитель министра по цифровой трансформации, данный закон призван «вернуть инновации в сферу общественных интересов». А также направить развитие ИИ в русло, обеспечивающее экономический рост при полном соблюдении прав и защиты граждан.

Особенности регулирования искусственного интеллекта в США: децентрализованный подход и отраслевая саморегуляция

В отличие от Европейского союза и Китая, где сформировали централизованные нормативно-правовые режимы для контроля за ИИ, подход США характеризуется фрагментарностью и опорой на отраслевую саморегуляцию.

Ключевой инициативой в области добровольного регулирования в США стало создание крупнейшими технологическими компаниями коалиции C2PA (Coalition for Content Provenance and Authenticity).

В рамках этого альянса разработали открытый технологический стандарт. Он предназначен для цифровой маркировки мультимедийного контента с целью установления его происхождения и истории изменений. Данное решение часто называют «цифровой подписью». Оно должно повысить прозрачность и помочь в идентификации синтетического контента, такого как изображения, сгенерированные ИИ.

Правовой вакуум на федеральном уровне частично заполняется активностью на уровне штатов. Ряд штатов, включая Калифорнию и Колорадо, принимают собственные законодательные акты. Они вводят более жесткие требования к использованию ИИ, особенно в сферах защиты персональных данных. Плюс в сфере недопущения дискриминации алгоритмов и регулирования систем распознавания лиц.

Ключевые вехи в развитии законодательства в сфере ИИ в США

  • Американская стратегия развития искусственного интеллекта (Распоряжениеи Президента США № 13859 от 11 февраля 2019 года «О сохранении американского лидерства в области искусственного интеллекта).
  • Распоряжение Президента США № 13960 от 3.12.2020 «О содействии использованию надежного искусственного интеллекта в федеральном правительстве».
  • Закон об обучении искусственного интеллекта в соответствии с Законом о наборе рабочей силы № 117-207 от 17 октября 2022 года.
  • В июле 2023 года семи крупнейшими IT-компаниями (Amazon, Google, Microsoft, OpenAI и т.д.) по инициативе правительства США были подписаны добровольные обязательства по управлению рисками, связанными с ИИ. В сентябре 2023 к ним присоединились еще 8 компаний.

Аналитики предлагают несколько объяснений сложившейся ситуации с отсутствием единого федерального регулирования:

  1. Стратегическое лидерство: Осторожный подход призван не создавать избыточных барьеров для инноваций. Он позволяет американским ИТ-компаниям сохранять технологическое превосходство и глобальную конкурентоспособность.
  2. Геополитические интересы: Гибкое регулирование может рассматриваться как инструмент обеспечения стратегических преимуществ. В то время как технологии ИИ активно интегрируются в инструментарий информационного и социального влияния.
  3. Сложность политического ландшафта: Комплексные федеральные законы в США не принимают. Это затруднено из-за глубоких политических разногласий между двумя партиями и системой сдержек и противовесов.

Ключевые выводы

В итоге, по мотивам маркировки ИИ-контента, удалось обзорно рассмотреть три принципиально разных пути развития регулирования:

  1. Европейская модель («риск-ориентированная»): Жесткое, всеобъемлющее регулирование на основе единого законодательного акта (AI Act). Фокус на защите фундаментальных прав человека, предсказуемости и снижении потенциальных рисков. Модель носит опережающий характер и стремится стать глобальным стандартом.
  2. Китайская модель («государственно-ориентированная» с первыми элементами риск-ориентированности): Вторая по степени проработанности. Регулирование направлено на обеспечение государственной безопасности, и общественного порядка. А также на достижение технологического суверенитета под строгим контролем государства.

Данная модель характеризуется динамичным развитием, сочетающим нормативно-правовое регулирование с масштабной государственной поддержкой отрасли. Китай демонстрирует высокую адаптивность к изменениям и итеративный подход к выстраиванию политики в сфере ИИ. Отправной точкой регулирования служит стремление максимально реализовать потенциал искусственного интеллекта для достижения стратегических национальных целей.

  1. Американская модель («рыночно-ориентированная»): Децентрализованный подход с акцентом на саморегулирование отрасли и инновационную гибкость. Отсутствие единого федерального закона компенсируется инициативами частного сектора (например, C2PA) и законами отдельных штатов. Цель — сохранение глобального технологического лидерства и конкурентных преимуществ.

Центральными темами регулирования становятся:

  • безопасность (кибербезопасность, человеческий надзор),
  • прозрачность (обязательная маркировка контента, раскрытие информации),
  • соблюдение прав (защита персональных данных, недопущение дискриминации)
  • и продвижение инноваций (государственное финансирование, поддержка стартапов).

Возникает «дилемма инноваций и контроля». Прослеживается очевидный компромисс. Жесткое регулирование (ЕС) потенциально ограничивает скорость развития технологий, но повышает их предсказуемость и безопасность. Мягкое регулирование стимулирует быстрые инновации, но создает правовые пробелы и системные риски.

Далее в блоге

Далее планирую подробно разобрать регулирование сферы ИИ в Российской Федерации.

Сейчас лишь отмечу, что в мае 2025 года Институт социально-экономического анализа и программ развития (ИСАПР) направил премьер-министру Михаилу Мишустину предложение. Оно связано с введением обязательной маркировки контента, созданного с помощью ИИ.

По расчетам специалистов института, так можно будет бороться с дипфейками и защищать пользователей от недостоверной информации. В настоящее время необходимость принятия закона находится на стадии обсуждения.

Интересно, что вы думаете по этой теме?

Начать дискуссию