Есть идея - Есть И…И!
Минцифры представило законопроект «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации» («Законопроект»), который закрепляет базовые термины ИИ, принципы его регулирования, права субъектов, ответственность и пр. Финальная редакция документа пока не согласована.
Эксперты Два Пиэр.Консалтинг(https://2pir.org) дали общий комментарий о перспективах нового регулирования для издания «Экономика и Жизнь» (с комментарием можно ознакомиться по ссылке: https://www.eg-online.ru/article/502359/ ).
В данной статье мы предлагаем дополнить наше экспертное мнение выше и подробнее рассмотреть ключевые положения Законопроекта.
Понятие ИИ
Определение ИИ в тексте Законопроекта соответствует Указу Президента РФ № 490, но требует дальнейшей классификации в зависимости от сложности используемой технологии.
Кроме того, оно описывает только спектр узкоспециализированных сервисов, а концепция универсального (общего) ИИ (AGI) не затронута, а именно она будет приобретать большую актуальность в ближайшее время.
Субъекты и их права
К субъектам отнесены разработчик, оператор, владелец, пользователь и органы власти.Пользователи должны быть предупреждены об использовании ИИ, имеют право отказаться от него и получить услугу традиционным способом (в определённых случаях). Также вводится право на компенсацию вреда от неправомерного применения технологии. Устанавливаются особые обязанности для отдельных категорий лиц (организаторы распространения информации и платформы соцсетей).
Законопроект вводит строгие требования к маркировке контента, созданного с помощью ИИ. Владельцы сервисов обязаны размещать предупреждение непосредственно в составе материала. Если такой контент распространяется в социальной сети с аудиторией свыше 100 тысяч пользователей в сутки, владелец платформы обязан проверять наличие маркировки. В случае её отсутствия он должен либо разместить предупреждение, либо удалить материал.
Ответственность
Если оператор системы ИИ возмещает пользователю вред, он может потребовать эти деньги с разработчика, если докажет, что проблема была в скрытых дефектах модели. В остальном ответственность субъектов распределяется соразмерно степени вины каждого участника.
Законопроект устанавливает презумпцию вины для разработчиков и операторов ИИ. Они будут нести ответственность за незаконные последствия работы системы, если «знали или должны были знать» о возможности их возникновения. При этом доказывать обратное придётся именно им. Для сферы ИИ, где поведение моделей часто бывает непредсказуемым, это значительные риски. Отсутствие чётких критериев привлечения к ответственности создаёт предпосылки для злоупотреблений, оценочного подхода и как следствие формирования неоднозначной судебной практики.
В результате разработчики и операторы оказываются в ситуации, когда даже полное соблюдение закона не гарантирует отсутствия ответственности, поскольку архитектура ИИ не позволяет обеспечить абсолютный контроль над итоговым результатом.
Охрана произведений, созданных ИИ
Автором произведений, созданных ИИ, является пользователь при условии наличия его творческого вклада.
В Законопроекте нет исчерпывающего перечня того, что считается творческим вкладом, но и нет презумпции авторства пользователя «по умолчанию». Владелец ИИ-сервиса должен прописать в оферте (пользовательском соглашении), кому принадлежит сгенерированный контент. Пользователь может получить исключительные права или ограниченную лицензию на использование, распределение прав может зависеть от типа подписки.
Обучение ИИ на охраняемых авторскими правами произведениях
Обучение ИИ допускается на любых общедоступных или правомерно полученных данных, включая произведения, защищённые авторским правом, без отдельного согласия правообладателя, если пользователь сервиса ИИ не имеет доступа к их содержанию. Это компромисс между интересами правообладателей и необходимостью развития цифровых технологий.
В Законопроекте отсутствует механизм привлечения к ответственности за использование пользователем в промпте материалов, защищённых авторским правом, без указания автора, если результат работы ИИ был выдан за собственное произведение, что создаёт дополнительный правовой пробел.
Доверенные модели и суверенитет
В государственных системах можно использовать только «доверенные» модели ИИ — те, что внесены в специальный реестр Правительства и соответствуют закону. Законопроект вводит понятия суверенная и национальная модель ИИ. Их разработка, обучение и эксплуатация должны проходить только в России, именно они будут обеспечены благоприятными условиями по закону. При этом трансграничные технологии ИИ могут быть запрещены или ограничены.
Законопроект является своевременной попыткой сформировать правовую основу ИИ в России, что соответствует тенденциям и стандартам международного сообщества. Вместе с тем он носит рамочный характер, требует правовой доработки и технической детализации норм в зависимости от типа и сложности используемой технологии, иначе с 2027 года бизнес столкнётся с рядом неопределённостей.