Государственное регулирование ИИ

А давайте поговорим про то, как государства регулируют (или пытаются регулировать) ИИ.

Для меня это непростая тема: с одной стороны, я живу в России вот уже почти тридцать лет с момента своего рождения, поэтому на фразу «государственное регулирование» у меня аллергия.

С другой стороны, совсем без принятия законов не обойтись: если с помощью ИИ можно совершить преступление, должна быть возможность такие преступления выявлять, наказывать преступников и защищать права законопослушных граждан.

Чтобы разобраться глубже, я сегодня полезу смотреть, что происходит в области государственного регулирования ИИ в мире, сложились ли какие-нибудь лучшие практики и как это все влияет на обычных людей, не наделенных властью.

Я уже касалась немного вопросов правового регулирования ИИ в одном из постов в телеграме, а сегодня будет пост поподробнее.

О чем речь

В англоязычной литературе есть устойчивый термин AI Governance — регулирование (администрирование) ИИ. Он довольно широкий и включает в себя подходы, процедуры и этические соображения, необходимые для управления разработкой, выводом на рынок и поддержкой ИИ-содержащих продуктов.
Есть и другие определения, например, такое:

Это исследование и формирование локальных и глобальных систем регулирования, которые влияют на исследования, разработку, вывод на рынок и использование существующих и будущих продуктов на основе ИИ. Системы регулирования включают в себя нормы, подходы, законы, процессы, политику и институты. Их действие положительно влияет на общество в долгосрочной перспективе.

То есть, регулирование ИИ — это не только про законы и государственную политику, но законы и государственная политика являются его существенной частью.Грубо говоря, компании сами могут регулировать свой ИИ, но закон определяет, заплатят ли они штраф за использование ваших данных без вашего согласия.

Теория

Законодательное регулирование отстает от развития технологии – это, в общем, дело обычное. Насколько мне удалось понять, устоявшихся практик пока нет. Но есть некоторые общие принципы, которые принимаются во многих странах.

Например, есть принципы Организации экономического сотрудничества и развития (ОЭСР). Их придерживаются 48 стран и Евросоюз. Сами принципы приняты в 2019 году и включают в себя следующее:

  • Инклюзивный рост, устойчивое развитие и повышение благосостояния (сокращение негативного влияния на экологию, включение в процесс работы с ИИ людей, у которых доступ к новым технологиям затруднен по разным причинам, сокращение неравенства и прочее);

  • Ответственность (принятие на себя ответственности за наступление негативных последствий);

  • Надежность, охрана и защита (внедрение механизмов, которые предотвращают наступление негативных рисков, и механизмов, которые справляются с последствиями рисков наступивших);

  • Прозрачность и объяснимость (про это мы говорили: объяснение способностей и ограничений ИИ, открытое сообщение об использовании ИИ, информирование пользователей о сборе и обработке данных, предупреждение о рисках);

  • Соблюдение прав человека и приверженность демократическим ценностям, включая справедливость и защиту персональных данных (соблюдение прав работников; борьба с ложной информацией, исходящей от ИИ; обеспечение человеческого контроля и так далее).

В английском языке есть два слова, которые мы переводим как «ответственность» – responsibility и accountability.

Responsibility – это «ответственность до». То есть, ответственность за то, чтобы подумать наперед и предотвратить наступление негативных последствий. Это ответственность честно выполнять свою работу

Accountability – это «ответственность после». То есть, ответственность за последствия своих действий и за то, как эти действия повлияли на окружающих. Это ответственность за признание своих ошибок и устранение их последствий.

Мне очень нравятся эти два слова, во-первых, тем, что они разделены, а во-вторых, тем, как связаны. Это две стороны одной медали, и одной без другой не существует. В то же время, важно понимать, что их две и что обе должны присутствовать, особенно там, где риски для людей особенно высоки.

Если вдруг у вас возник вопрос: «Входит ли Россия в ОЭСР?» – не входит. Согласно данным самой ОЭСР, Россия также не входит в число стран-нечленов организации, которые официально принимают данные принципы.

Еще есть рекомендации по этике в области ИИ от ЮНЕСКО – сюда Россия входит, как и еще 194 страны. Эти рекомендации вышли в 2021 году и во многом сходятся с принципами ОЭСР:

  • Уважение и защита прав человека и человеческого достоинства;
  • Защита окружающей среды;
  • Обеспечение разнообразия и включения в разговор об ИИ разных групп людей;
  • Поддержание мира и соблюдение закона;
  • Защита людей от опасных последствий использования ИИ;
  • Обеспечение безопасности;
  • Обеспечение справедливости и недискриминации;
  • Поддержание устойчивого развития;
  • Защита персональных данных;
  • Обеспечение человеческого надзора
    и так далее.

Поясню «устойчивое развитие» на всякий случай: это развитие, которое не отбирает ресурсы у будущего. «Срубим все деревья и понастроим заводов,» – это не устойчивое развитие. «Построим завод здесь, посадим деревья там, чтобы компенсировать срубленные, и сделаем фильтр для очистки сточных вод,» – устойчивое развитие.

Но это все довольно общие рассуждения «За все хорошее против всего плохого». Как разные страны на практике их понимают и применяют – другой разговор.

Практика

По-разному. Очень по-разному они применяют рекомендации.

Европейский союз

В Евросоюзе, например, ограничения весьма строгие. Там в 2024 году принят EU AI Act, который запрещает некоторые виды использования ИИ, которые признаны наиболее рискованными. В частности, запрещено следующее:

  • Скрытое или манипулятивное использование ИИ, когда пользователь не осознает, что именно влияет на принятие им решений;

  • Удаленные системы идентификации по биометрическим данным, за исключением поиска пропавших людей или преступников в рамках расследования;

  • Системы, которые собирают биометрические данные для классификации людей на группы;

  • Системы, которые определяют эмоции человека, за исключением медицинского использования или использования в области безопасности;

  • Системы распознавания лиц, которые собирают данные без согласия и уведомления пользователей;

  • Системы, которые предсказывают вероятность совершения человеком преступления, если он ранее никаких преступлений не совершал;

  • Системы, которые так или иначе классифицируют людей или присваивают им «социальный рейтинг», и которые приводят к ухудшению отношения к отдельным людям или группам людей;

  • Использование систем, которые эксплуатируют человеческие уязвимости – в широком смысле или связанные с возрастом, ограниченными возможностями, социальным положением и т. п.

Остальные системы делятся по уровням риска, и к каждому уровню прилагается свой набор регулирующих правил. Не буду вас утомлять подробностями, скажу только, что многие новые функции, которые выпускают американские разработчики вроде OpenAI, становятся доступны европейским пользователям заметно позже, чем американским, потому что перед выходом на рынок нужно пройти проверку на соблюдение всех правил.

Недавно, к слову, прошла новость о том, что в Дании планируют наделить граждан авторским правом на собственное «лицо, тело и голос» – то есть, любые изображения, видеоматериалы и все, что можно назвать «цифровой копией», созданные на основе или с использованием образа или голоса конкретного человека. Звучит интересно, посмотрим, что получится.

В 2024 же году Совет Европы выпустил рамочное Соглашение по ИИ. Оно открыто для подписания не только для членов ЕС, и к нему уже присоединились США, Япония, Израиль и некоторые другие страны. Из тех, кто к нам поближе, соглашение подписали Грузия, Черногория, Молдова и Украина. Судя по официальному сайту, никто из подписавших Соглашение пока его не ратифицировал.

Рамочное соглашение по сути своей довольно широкое, но это все же попытка как-то привести к общему знаменателю законы разных стран.

США

В США правовой режим менее строгий и во многом опирается на существующие законы, рассматривая применение ИИ скорее как одну из ситуаций, в которой права граждан могут быть нарушены.

Там есть Билль о правах в области ИИ (AI Bill of Rights). Он ни к чему не обязывает и не ложится в основу политики государства. Раздел «Правовой дисклеймер» («Legal Disclaimer») звучит как: «Мы написали эту бумагу, но вы в связи с этим вообще ничего не обязаны делать. Решайте там по ситуации как-нибудь». Во всяком, для меня, человека без юридического образования, он звучит так.

Дальше авторы сообщают, что прислушались к запросу граждан, и декларируют общие принципы, такие как

  • Необходимость создания эффективных систем;

  • Защита персональных данных;

  • Защита от дискриминации

  • и так далее по тому же списку, который мы уже видели.

Поймала себя на том, что сначала у меня аллергия на вмешательство государства в ИИ, а потом аллергия на невмешательство: какой-то пассивно-агрессивный тон прорезался. Здесь это вызвано скорее тем, что авторы сего документа прямо пишут: «Граждане, мы услышали ваше беспокойство и выпустили абсолютно ничего не меняющую бумажку. Не беспокойтесь теперь».

Опять же, я не юрист, возможно, моя интерпретация неточная.

Еще в США есть NIST – National Institute of Standards and Technology (Национальный институт стандартов и технологий). Они выпустили свой документ, более конкретный и связанный с управлением рисками. Его уже можно использовать как инструмент с конкретными рекомендациями. А можно не использовать: он тоже никого ни к чему не обязывает.

Справедливости ради, роль NIST – поддерживать организации и повышать безопасность процессов, разрабатывая стандарты и рекомендации. То есть, это не то чтобы законодательный орган.

Другие развитые страны

В Японии есть «Социальные принципы человекоцентричного ИИ». Это тоже не законодательный акт, который кого-то ограничивает, а скорее общее руководство.

Во введении, что интересно, написано:

Современное общество сталкивается со множеством вызовов, которые ставят под угрозу выживание человечества <…> ИИ рассматривается как ключевая технология, которая спасет общество от этих проблем <…>

Технооптимисты, однако.

Документ признает отсутствие единого определения ИИ, обращается к основам философии и формулирует семь социальных принципов:

  1. Человекоцентричность;
  2. Принцип образования / грамотности (подразумевает распространение знаний об ИИ среди тех, кто лишен к ним доступа или ограничен в нем);
  3. Принцип защиты персональных данных;
  4. Принцип страхования общества (он называется «The Principle of Ensuring Security» и подразумевает, что общество должно поддерживать исследования в области ИИ и особенно в области рисков, а также прилагать усилия к тому, чтобы не зависеть от конкретной технологии или группы технологий);
  5. Принцип честной конкуренции;
  6. Принцип справедливости, прозрачности и ответственности;
  7. Принцип развития («The Principle of Innovation» – общество должно стремиться к созданию инноваций и кооперации в области науки и технологий).

Чисто философски этот документ мне пока как-то ближе прочих. Возможно, потому что он заметно короче и написан нормальным языком, а не этим кошмарным канцеляритом.

В Великобритании есть Национальная стратегия в области ИИ. Там изложен план по превращению Великобритании в «global AI superpower» (глобальный сверхцентр ИИ? глобальный лидер в ИИ? – что-то в этом роде) за 10 лет с 2021 года.

Стратегия предлагает инвестировать в развитие технологий и образование граждан, вовлекая в высокотехнологичные сектора экономики больше людей; а также стратегии регулирования ИИ и технические стандарты. Она в меньшей степени про регулирование и в большей степени про развитие и поддержку инноваций, хотя раздел, связанный с рисками, там тоже есть. Она, в том числе, предполагает активное международное сотрудничество с целью сделать страну лидером мнений на международной ИИ-арене.

Китай

В Китае все сурово регулируется, включая ИИ, конечно же. Год назад в коротком посте я упомянула китайскую правовую систему в области ИИ как наиболее проработанную на тот момент.

В 2021 году было опубликовано Положение об управлении рекомендательными алгоритмами, которое требовало регистрировать подобные алгоритмы в специальном реестре.

В 2022 году вышло еще одно Положение – об администрировании технологий глубокого синтеза. Это создание текстов, изображений, видео и чего угодно еще с использованием ИИ. Согласно этому положению, весь сгенерированный ИИ контент должен быть явно помечен как таковой. Кроме того, компании обязаны предпринять меры по предотвращению создания недостоверной информации с использованием ИИ. Дипфейки знаете? Вот это о них.

В 2023 году вышел документ, который вводит временные меры по управлению генеративным ИИ («Interim Measures for the Management of Generative Artificial Intelligence Services»). Там, помимо прочего, указано, что внедрение и использование ИИ (в переводе с китайского на английский написано «provision and use») должно соответствовать закону и нормам морали, в том числе, придерживаться социалистических ценностей. Кроме того, запрещена дискриминация разных групп людей, есть требование уважать интеллектуальные права, а также интересы и безопасность окружающих. Наконец, от компании требуется внедрять меры по обеспечению прозрачности ИИ. Там еще много всего, я не буду текст целиком пересказывать.

Мне не вполне понятно, требуется ли обучать модели так, чтобы они выдавали ответы в соответствии с социалистическими ценностями, или только использовать в соответствии с этими ценностями.

По всей видимости, только использовать. Но это интересно, надо поэкспериментировать на предмет ценностей с их моделями.

В общем, в Китае есть какой-нибудь документ на каждый случай. Не будем превращать пост в перечисление таких документов, подведем лишь краткий итог: всё очень строго.

То есть, в США регулирование есть, но носит рекомендательный характер. В ЕС в основном регулирование строгое, но скорее в том смысле, что разработчика рассмотрят под микроскопом, обвешают предупреждениями, обяжут сдавать отчетность, но допустят-таки на рынок. В других европейских странах действуют варианты между первым и вторым.

В Китае строгое регулирование в том смысле, что разработчику скажут, что делать и как делать, а потом будут стоять за плечом и бдить, чтоб сделал.

Другие развивающиеся страны

В Индии есть принципы ответственного ИИ и план по их внедрению в жизнь. Они входят в подход «ИИ для всех» (#AIFORALL). Там упор делается на поддержку инноваций, безопасность, влияние ИИ на рынок труда – очень близко к принципам ЮНЕСКО и ОЭСР. Насколько я могу судить, конкретно принципы никого ни к чему не обязывают. А вот есть еще Цифровой акт (или Акт о цифровой Индии, Digital India Act) – это нормативно-правовой документ. Он пока не принят, ожидают принятия в 2025 году. Там про защиту данных, регулирование ложной информации, созданной с использованием ИИ, отдельно про безопасность детей в сети и так далее.

В Бразилии тоже обсуждается закон, который классифицирует ИИ-системы по уровню рисков и запрещает наиболее опасные, описывает требования к обработке данных, безопасности и так далее – очень похож на EU AI Act, тоже пока не принят.

Вообще ОЭСР в 2024 году зафиксировала более тысячи разного рода инициатив в 69 странах и ЕС, так что работа идет. Можно выделить несколько базовых форматов, таких как абсолютное государственное регулирование (Китай), частичное ограничение и поддержка инноваций (как в ЕС) и рекомендательное регулирование, как в США. И много разных комбинаций, которые каждая страна подбирает под себя.

Россия

А что там у нас в России?

Пользоваться VPN для доступа к зарубежным нейросетям пока можно, во всяком случае, 24 июля 2025 года, когда я пишу этот пост.

В плане законодательного регулирования самого ИИ я нашла два источника.

Первый – портал, посвященный мониторингу ключевых нормативно-правовых актов в этой сфере.

Я про него писала в прошлом году, там пока новых законов не образовалось. Но образовался, кажется, новый кодекс этики. Я его не припомню, во всяком случае. Он был принят аж в 2021 году, так что, скорее всего, просто пропустила в потоке информации.

Кодекс носит рекомендательный характер и распространяется только на гражданские разработки.

Вы его на сайте можете скачать и прочитать, он небольшого объема. Я вам здесь немного процитирую, вы только сядьте, а то упасть можно.

Сели?

Итак,

Главный приоритет развития технологий ИИ в защите интересов и прав людей и отдельного человека

Далее по пунктам:

  • человеко-ориентированный и гуманистический подход;
  • уважение автономии и свободы воли человека;
  • соответствие закону;
  • недискриминация («Акторам рекомендуется создавать и применять методики и программные решения, выявляющие и препятствующие возникновению дискриминации по признакам расовой, национальной, половой принадлежности, политических взглядов, религиозных убеждений, возраста, социального и экономического статуса или сведений о частной жизни»);
  • оценка рисков и гуманитарного воздействия.

Кодекс, к слову, прямо декларирует, что за последствия применения ИИ ответственность несет человек – разработчик или пользователь. То есть, «Это не я, это ИИ,» – не прокатит.

Раздел про развитие технологий и конкуренцию написан уже больше в духе сегодняшних реалий: сотрудничество и обмен опытом только между российскими компаниями, стимулирование научной деятельности совместно с российскими исследовательскими центрами. То есть, никаких крамольных предложений о международной интеграции, хотя тон документа вполне, не побоюсь этого слова, либеральный.

В общем, посмотрите. Без сарказма, это хороший документ. Вопрос разве что в применимости к сегодняшним реалиям.

Заключение

Если вы дочитали этот текст до конца, вам понравилось и хочется еще что-нибудь в этом духе почитать, заходите ко мне в телеграм. Там есть разные инструменты и технологии, разборы научных публикаций и иногда немного моих мыслей.

P.S.: В связи с принятием законопроекта, который вводит штрафы за «поиск экстремистских материалов», правозащитная организация ОВД-Инфо опубликовала разъяснения для граждан: за что штрафуют и как себя обезопасить.

В соответствии с законом об иноагентах я должна сообщить вам, что ОВД-Инфо признана иностранным агентом (организация включена в реестр незарегистрированных общественных объединений, выполняющих функции иностранного агента).

Начать дискуссию