Маркировка сгенерированного контента и блокировка создания противоправных материалов: Минцифры опубликовало законопроект об ИИ
Текущая версия предполагает вступление документа в силу с 1 сентября 2027 года.
- Законопроект «Об основах госрегулирования сфер применения технологий искусственного интеллекта в России» разместили на сайте проектов нормативных правовых актов. Он затрагивает граждан и юрлиц, которые занимаются разработкой, применением и внедрением ИИ на территории страны. Общественное обсуждение завершится 15 апреля 2026 года, пишет «Интерфакс».
- В частности, в документе прописано, что для «обеспечения технологической независимости и сохранения традиционных духовно-нравственных ценностей» в России будут поддерживать внедрение «суверенных больших фундаментальных моделей» и «национальных больших фундаментальных моделей».
- Они должны соответствовать требованиям: например, разработка и обучение на территории России — россиянами и российскими юрлицами. Дополнительные требования к «суверенным и национальным большим фундаментальным моделям», порядок соответствия им и «случаи обязательного применения» сможет установить правительство.
- В государственных информсистемах и на объектах критической информационной инфраструктуры госорганов и госучреждений смогут работать «доверенные ИИ-модели» из реестра. Порядок включения в него определит правительство. Доверенные модели должны соответствовать требованиям по безопасности и качеству и обрабатывать данные только в России.
- В законопроекте также прописаны права россиян при использовании ИИ. Например, пользователей нужно уведомлять об использовании ИИ при продаже товаров или оказании услуг «без участия человека в принятии решений». Граждане смогут обжаловать решения госорганов и госкомпаний, принятые с использованием ИИ, в досудебном порядке. Также у россиян будет право на компенсацию вреда, причинённого «неправомерным использованием ИИ».
- Разработчики моделей обязаны «исключать дискриминационные алгоритмы и блокировать создание противоправного контента». Операторы ИИ-систем — тестировать их на безопасность и информировать пользователей об ограничениях. Владельцы сервисов, среди прочего, — принимать меры, чтобы их не использовали в «противоправных целях».
- Ответственность за ИИ-контент, нарушающий законодательство, распределяется между разработчиком модели, оператором системы, владельцем сервиса и пользователем соразмерно степени вины каждого. При этом пользователь несёт ответственность за использование ИИ-материалов, нарушающих законы, если действовал умышленно.
- В Минцифры добавили, что все сгенерированные аудиовизуальные материалы должны маркироваться. Крупные соцсети обязаны проверять наличие предупреждения, а при его отсутствии самостоятельно маркировать или удалять контент.
133 комментария