Регулировать нельзя давать свободу. Как регулируют ИИ в России и мире
Где поставить запятую? Мы пока сомневаемся. В апреле 2025 года стало известно, что в Госдуме активно обсуждают законопроект по регулированию рынка искусственного интеллекта в России. Сенсации здесь нет: весь мировой контекст подтверждает, что ИИ окончательно перешёл в разряд стратегических приоритетов государств. Но есть ли хотя бы один образцовый документ, который способен установить порядок в отрасли? Давайте посмотрим.
Искусственный интеллект проникает во все сферы общественной жизни: от здравоохранения до транспорта, от образования до обороны. Разумеется, государственная политика не может обойти вниманием явление, которое настолько меняет повседневность как отдельных граждан, так и целых отраслей экономики. Страны стремятся найти баланс между стимулированием инноваций и обеспечением безопасности и этики в использовании ИИ.
Этика и эстетика российского ИИ
До недавнего времени регулирование ИИ-отрасли в России касалось исключительно этических стандартов и осуществлялось бизнесом и научным сообществом лишь с помощью государства.
В 2019 году был принят Кодекс этики использования данных, разработанный Ассоциацией больших данных совместно с Институтом развития интернета (ИРИ). Это свод правил поведения при обработке информации: запрещено обходить правомерные средства защиты, перед использованием открытых данных необходимо проверить, размещены ли они легально, и т. д.
При чём тут ИИ? Если честно, почти ни при чём, за исключением одного пункта: «Использование искусственного интеллекта при обработке данных должно базироваться на защите основополагающих прав и свобод человека, не допускать дискриминацию и причинение вреда». В общем, вспоминаем Айзека Азимова и Первый закон робототехники.
К кодексу присоединились несколько десятков компаний, включая «Яндекс», «Сбер», «ВТБ», «Газпром-медиа» и «Газпромбанк».
В 2021 году появился Кодекс этики в сфере ИИ — под началом Альянса в сфере искусственного интеллекта РФ, Аналитического центра при Правительстве и Минэкономразвития. В качестве приоритетов развития отрасли выделяются человеко-ориентированный и гуманистический подход, уважение автономии и свободы воли человека, соответствие закону, недискриминация, оценка рисков и гуманитарного воздействия. На сегодняшний день у кодекса 902 подписанта. Их список, а также состав комиссии и сам текст можно увидеть на сайте кодекса.
Оба документа касаются скорее моральных оснований, хотя в них очерчивается, что отрасль подчиняется государству. Ответственность за нарушение кодексов, увы, не предусмотрена — за исключением тех положений, которые входят в реальные законодательные акты (например, закон о персональных данных).
Свежий выпуск нашего подкаста: «Как внедрить ИИ в российский бизнес? Хайп против перспектив».
Обсуждали этику в использовании ИИ. Андрей Рыков, руководитель ИТ‑направления «ОБИТ», задал гостям вопрос: «Если ИИ-система, внедрённая вами, примет оптимальное с точки зрения данных решение, которое противоречит не только интуиции лучших экспертов, но и этическим нормам компании, как вы будете отстаивать свой выбор перед советом директоров и где проведёте границу между доверием алгоритму и ответственностью за принятие неудобного решения?»
Смотрим:
➡ YouTube
➡ VK Видео
Слушаем ➡ Яндекс Музыка
От саморегулирования к законодательной базе
В 2025 году наша страна подошла к формированию строгих требований к функционированию рынка ИИ. В Государственной Думе создана группа по разработке закона об искусственном интеллекте. В группу вошли представители всех парламентских фракций. Привлечены юристы, консалтинговые компании и участники рынка, которые развивают ИИ.
«РБК» сообщает, что в текущей версии документа затронуты следующие аспекты:
- определения основных понятий
- роли, ответственность и юридический статус разработчиков, операторов и пользователей систем ИИ
- защита интеллектуальных и имущественных прав
- маркировка систем ИИ и результатов их использования
Участники рабочей группы считают: пользователи должны понимать, что они взаимодействуют с искусственным интеллектом или контентом, который обработан ИИ. Права на контент могут быть ограничены разными сроками — в зависимости от степени участия генеративного ИИ и человека.
Ранее обсуждалось, что системы ИИ можно классифицировать по уровню потенциального риска — для индивида, общества и государства. Это предложение было отклонено, поскольку «закон должен быть рамочным, чтобы не затормозить развитие технологии». Напомним, в России до 2030 года действует национальная стратегия, которая предусматривает инвестиции не менее 850 млрд рублей и повышение доли сотрудников с навыками работы с ИИ до 80%.
Судя по материалам в прессе, по итогам работы группы в Госдуме нас может ожидать многогранно проработанный документ, который установит порядок на рынке искусственного интеллекта. Если он появится, это будет однозначным прорывом.
Но, как показывает практика, не всё так просто. Ещё в 2017 году россиянам обещали закон о Big Data, который позволял бы устанавливать запрет на сбор данных о себе. Ни один из вариантов закона так и не был принят. Законы о средствах массовой информации и рекламе до сих пор не доработаны с учётом новой цифровой реальности. Стóит ли надеяться на скорое разрешение всех вопросов регулирования?
А что в мировой практике?
Первый в мире комплексный закон об искусственном интеллект представил Европейский союз. AI Act вступил в силу 1 августа 2024 года, и там ИИ-системы как раз классифицируются по уровням риска.
- Полностью запрещено использование властями социального скоринга на основе ИИ. То есть ИИ не может ущемлять права человека из-за «неправильных» характеристик и поступков.
- Не отвергнуты, но подлежат крайне строгому контролю системы, которые используют ИИ для подсознательного манипулирования, способного привести к физическому или психологическому ущербу. Таким же образом регулируется неизбирательное использование дистанционной биометрической идентификации в целях правопорядка.
- Системы, которые используются в критических сферах (как здравоохранение и образование), отнесены к категории высокого риска. Они требуют независимой проверки перед выходом на рынок.
- Для прочих систем, включая генеративные нейросети наподобие ChatGPT, определены базовые меры прозрачности — как уведомление о взаимодействии с ИИ.
AI Act обязывает к исполнению требований все компании, которые предоставляют ИИ-продукты на рынке Евросоюза. В случае несоблюдения можно получить штраф размером до 35 млн евро или до 7% годового оборота (смотря что больше).
Идеален ли закон Евросоюза? Нет. Его критикуют за расплывчатые формулировки, риск подавления инноваций и лазейки, которые позволяют технологическим компаниям нелегально использовать материалы, защищённые авторским правом.
В Соединённых Штатах отсутствует единый закон о регулировании искусственного интеллекта. Отдельные штаты разрабатывают собственные нормативные акты. На федеральном уровне в январе 2025 года был подписан исполнительный указ, отменяющий предыдущие ограничения и направленный на стимулирование развития ИИ без идеологического вмешательства. Ничего личного — только стратегия мирового лидерства.
Китай, как и Россия, стремится к созданию законодательной базы. В 2015 году создан «План действий по содействию развитию больших данных», в 2017 году — «План развития искусственного интеллекта следующего поколения». Эти документы скорее технопозитивны, но это не означает, что они не предусматривают защиту национальных интересов и нормы безопасности и этики.
Поставщики обязаны регистрировать свои алгоритмы в Управлении по киберпространству Китая и проходить оценку безопасности перед запуском сервисов. Также требуется маркировка контента, созданного или отредактированного ИИ. Действует ряд законов о защите данных в сети, а также комиссии этического надзора.
Попытки создать принципы регулирования ИИ предпринимаются и на межгосударственном уровне. В феврале 2025 года в Париже прошёл Саммит по искусственному интеллекту, на котором 60 стран, включая Францию, Китай, Австралию, Японию и Индию, подписали декларацию об этичном, безопасном и устойчивом ИИ. США и Великобритания отказались присоединиться к соглашению, указав на излишние ограничения и неясности в документе.
Что мы имеем на весну 2025 года?
В мире пока нет чёткого представления, как эффективно регулировать искусственный интеллект. Законодатели пытаются в реальном времени учитывать множество нюансов и спотыкаются о практику правоприменения. Основательного законодательства нет ни в США, ни в Китае, а AI Act Евросоюза хотя и представляет комплексный взгляд на индустрию, пока далёк от идеала.
Вдобавок нет прецедентов для формирования качественной законодательной базы под регулирование ИИ. А это значит, что никакой документ нельзя будет считать образцовым, пока он не пройдёт проверку временем и юридической практикой.
«Я думаю, что ещё несколько лет мы пробудем в ситуации, когда технологии искусственного интеллекта будут давать информацию для принятия решения, но непосредственно принимать это решение и нести за него ответственность будет всё-таки человек».
Может быть, именно Россия совершит тектонический сдвиг? ;)
Больше о том, куда движется отрасль: Гонка алгоритмов, феномен DeepSeek и другие тенденции развития ИИ
Подписывайтесь на наш VC-блог, чтобы регулярно получать полезную информацию об ИТ для бизнеса.