Законы об AI generated content

Знаете ли вы, что в мире существует уже ряд нормативных документов, всевозможных положений, руководств, актов и даже законов об использовании AI generated контента?
В России тоже появилась законотворческая инициатива, и всё идет к тому, что закон будет (хотя законодатели планируют действовать без спешки). Но пока его нет, и можно сориентироваться, что нас, скорее всего, ждет, и как это может отразиться на работе нейро-иллюстраторов, в частности.

Законы об AI generated content

В Америке начали писать бумаги раньше всех, первой ласточкой были Copyright Office USA, они разобрались с ключевыми понятиями и обозначили ключевые проблемы. Следом в Европе выпустили AI Act, в том же русле. И есть особое уникальное положение в Великобритании, но не будем сильно углубляться.

Это пока только рекомендации — например, Конгрессу США — принять такого рода закон. Сейчас множатся разнообразные законодательные инициативы, их уже десятки. И Голливуд, как всегда, бастует, люди там против использования их внешности\голоса без разрешения. Бастовали, кстати, целый год, и совсем недавно, наконец, о чем-то договорились.

Если очень упрощать всё это брожение, то его содержание сводится к трем основным идеям:

  • Автором остаётся человек;
  • Нужна маркировка/прозрачность;
  • Для обучения моделей нужны договоры или изъятия из права.

Самые же интересные и реальные вещи происходят сейчас в Китае, и мне определенно кажется, что у нас будут смотреть на китайских товарищей, тем более, что они опередили и Европу и США: у них уже работает закон!

Что там принято: маркировки.
Сгенерированный контент теперь обязан иметь метки, "явную" и "неявную" ( в метаданных). А явная маркировка это текст, обычно в правом нижнем уголке, обычно по-китайски (хотя бывает и по-английски), 5-10 % высоты изображения.

Полноценно закон заработает с 1 сентября и тогда с нарушителями разговор будет серьезный. Санкции предусматриваются национальными законами, это предупреждения, обязательства удалить материалы, приостановка работы сервиса и штрафы, их будут выписывать прямо-таки гигантские. Именно серьёзность санкций и жесткий контроль делают китайскую систему одной из самых строгих в мире по регулированию AI-контента.

Но что любопытно, эта же китайская система может считаться и самой гибкой.

Главный водораздел в теме ИИ проходит там, где возникает "человеческий вклад" в сгенерированный контент. Потому что именно это будут учитывать суды, решая, принадлежат вам права на нейро-контент или нет.

Да, нейросети предоставляют лицензии, и вроде как "отдают" права юзеру. Но особенность текущего момента в том, что юзер не всегда может оставить эти права у себя (чтобы потом продать клиенту, например) — они как бы "утекают" в распоряжение вообще всех.

Вот список таких вкладов для изображений:

  • текстовый prompt (запрос);
  • отбор результата – выбор удачного изображения из нескольких сгенерированных вариантов без дальнейших изменений;
  • незначительное редактирование – небольшая ретушь, цветокоррекция, фильтры без существенных изменений сюжета;
  • cущественное редактирование или коллаж – заметная переработка AI-изображений: комбинирование нескольких фрагментов, дорисовка, изменение композиции;
  • иной вклад (обучение модели, настройка) – например, самостоятельное дообучение нейросети на своих данных, создание пользовательского AI-стиля.

Что характерно: если действие человека не достигает "порога творчества", конечное изображение рассматривается как неохраняемый результат. В США и ЕС такой материал фактически попадает в общественное достояние. В Китае отсутствует чёткое понятие public domain для неохраняемых AI-работ, но эффект аналогичный — никто не получает исключительных прав, если не доказан творческий вклад человека.

Так вот, в перечисленных вкладах, промтинг "порога творчества" не достигает, отбор результата в целом тоже, частичное редактирование — не всегда, и дообучение модели тоже! В США и Европе.

А вот в Китае, как оказалось, могут признать дообучение модели авторским существенным вкладом и защитить. На уровне законов этого, впрочем, не закреплено, но существует как минимум один резонансный кейс, который как раз и показывает гибкость китайских судов в этом вопросе.

Дело Li v. Liu (Пекинский интернет-суд, ноябрь 2023)
Знаковое решение по изображениям.

Истец Ли с помощью генеративной модели (Stable Diffusion) создал изображение женщины, опубликовал его в соцсети, а ответчик без разрешения использовал его в статье. Судья встал на сторону истца и признал изображение охраноспособным, а Ли – автором. Важным было обоснование: Ли подобрал и последовательно уточнил более 150 текстовых подсказок, настроил параметры генерации, многократно корректировал результаты, добиваясь изображения, воплощавшего его замысел. Судом было установлено, что «интеллектуальное достижение» налицо — серия осознанных творческих операций истца при работе с AI-инструментом. Также подчеркнуто проявление «персонального выбора и эстетического суждения» автора в процессе. Таким образом, итоговый образ признан «произведением» в смысле закона, а права автора принадлежат Ли. Суд отдельно отметил, что ИИ или его разработчики автором быть не могут, поэтому права либо принадлежат пользователю, либо никому. Здесь права присудили пользователю, раз он оказал решающее творческое влияние.

Мне захотелось посмотреть, а какое именно изображение так настойчиво ваял Ли? К сожалению, материалы суда закрыты, и мы его никогда не увидим (наверное). Но я попробовала сделать реконструкцию по текстовому описанию, которое доступно. Это молодая девушка азиатской внешности, в лучах golden hour, с косичками!

Как вы понимаете, при сборе информации не обошлось без Deep Research, а он намного превышает объем поста, так что если у вас есть вопросы по статье, можно легко углубиться в детали.

5
2 комментария