AI Act - самый жесткий европейский регламент по ИИ

35 млн. евро штрафа - так ЕС наказывает за нарушения нового регламента по разработке и использованию ИИ.

Евросоюз официально определил, что считать системой искусственного интеллекта. Это не просто формальность — речь идёт о первом в мире комплексном правовом акте, который систематизирует понятие ИИ, устанавливает его границы и вводит единые правила регулирования.

В данной статье рассмотрим что из себя представляет первый регламент по разработке и использованию ИИ.

Введение

Регламент (ЕС) 2024/1689 — первый в мире комплексный закон об искусственном интеллекте. Он вводит обязанности, запреты и контроль за использованием ИИ в разных сферах — от банков и здравоохранения до маркетинга. Но чтобы эти нормы применялись, сначала нужно понять: что считается ИИ?

“ИИ - семейство технологий, которое способствует получению широкого спектра экономических, экологических и социальных выгод во всех отраслях промышленности и социальной деятельности."

[п. 4]

Для этого Еврокомиссия опубликовала руководящие принципы, поясняющие юридическое определение системы ИИ. Это не только методичка, но и своего рода «инструкция по выживанию» для бизнеса.

“Целью настоящего Постановления является улучшение функционирования внутреннего рынка путем установления единой правовой основы в частности, для разработки, размещения на рынке, ввода в эксплуатацию и использования систем искусственного интеллекта.”

[п. 1]

Определение

С ростом популярности генеративных моделей, глубокого обучения и автоматизированных решений ИИ перестал быть только "технологией будущего" — он стал фундаментом цифровых сервисов. Однако правовое регулирование не поспевает за практикой.

Даже система, работающая автономно и генерирущая выводы на основе данных, может считаться ИИ. Это ключевое отличие подхода ЕС, т.е. не по технологии, а по функции системы.

“Система искусственного интеллекта означает машинную систему, которая предназначена для работы с различными уровнями автономности и которая может проявлять адаптивность…”

[c.3, п.1]

Теория "чёрного ящика" и право на объяснение

Одним из центральных вызовов для законодателей стало то, что большинство современных ИИ-систем, которые основаны на глубоком обучении, действуют по принципу «чёрного ящика». Их внутренние механизмы принятия решений сложно объяснимы даже для создателей. Это поднимает вопросы: можно ли использовать такие системы в критически важных сферах — медицине, правосудии, образовании? Почему они принимают те или иные решения? Вследствие этого появляются риски дискриминирующего воздействие на человека.

“Законодательство Союза и национальное законодательство уже предоставляют эффективные средства правовой защиты физическим и юридическим лицам, чьи права и свободы чьи права и свободы пострадали в результате использования систем искусственного интеллекта.”

[п. 170]

“Затронутые лица должны иметь право на получение разъяснений в тех случаях, когда решение организации, осуществляющей внедрение (ИИ-систем), основано главным образом на результатах работы определенных систем искусственного интеллекта с высокой степенью риска, которые подпадают под действие настоящего Регламента…”

[п. 171]

Это означает, что пользователь, клиент или гражданин может запросить объяснение, если результат взаимодействия с системой ИИ существенно повлиял на его права или свободы. Впервые право на объяснение перестаёт быть этической рекомендацией и становится обязательным требованием для систем с высоким риском.

“Наличие понятной информации о том, как были разработаны системы искусственного интеллекта с высокой степенью риска и как они работают на протяжении всего срока использования, имеет важное значение для обеспечения прослеживаемости этих систем, проверки соответствия требованиям настоящего Регламента, а также мониторинга их функционирования и постмаркетингового мониторинга.”

[п. 71]

Таким образом, прозрачность становится юридической обязанностью, которая накладывает последствия на конечный продукт. Наличие прозрачности в действиях ИИ, особенно при принятии решений, должно обеспечиваться в полной мере: логирование процессов принятия решений, доступность информации о наборах данных, описание модели принятия решений. Это поможет предотвратить дискриминирующие воздействия интеллектуальных систем на человека.

Управление рисками и человеческий контроль

Одним из важных вызовов регулирования ИИ является вопрос: “Где граница между технической автономией и юридической ответственностью? Может ли система, действующая без участия человека, быть источником вреда?”.

“Системы искусственного интеллекта, подверженные высокому риску, должны проектироваться и совершенствоваться таким образом, чтобы физические лица могли контролировать их функционирование, обеспечивать их использование по назначению и устранять их последствия на протяжении всего жизненного цикла системы.”

[п. 73]

Т.е. любая систем должна обеспечивать:

  • технические механизмы для вмешательства человека;
  • возможность мониторинга и корректировки поведения;
  • понятную инструкцию по безопасной эксплуатации.

Возможные риски использования ИИ должны контролироваться на уровне технических устройств. Возможные группы рисков могут включать в себя этические, социальные и регуляторные проблем. Большая часть рассматриваемого регламента посвящена классификации и рассмотрению возможных рисков при использовании ИИ: глава 3, секция 1, статьи 6-7 рассматривают классификации основных рисков; секция 2 той же главы формирует требования к ИИ-системам с потенциально высоким уровнем риска для человека.

“Поставщики в любом случае должны соблюдать степень строгости и уровень защиты, необходимые для обеспечения соответствия их систем ИИ с высоким риском настоящему Регламенту.”

[с. 17, п. 2]

Интеллектуальные системы должны пользоваться исключительно достоверными наборами данных, исключающие любое возможное дискриминирующее воздействие на человека.

“Качественные данные и доступ к высококачественным данным играют важную роль в обеспечении структуры и эффективности многих систем ИИ, особенно когда используются методы обучения моделей, с целью гарантировать, что система ИИ с высоким уровнем риска будет работать безопасно и не станет источником дискриминации…”

[п. 67]

Также настоящие Регламент содержит требования по утверждению созданной интеллектуальной системы и взятии на себя ответственности за возможные антисоциальные риски [с. 23]. Инструкции по тестированию таких систем сформированы в статье 27:

“…лица, осуществляющие внедрение (ИИ-систем), проводят оценку, состоящую из:

(a) описание процессов внедряющей организации, в которых система ИИ повышенного риска будет использоваться в соответствии с ее назначением;

(b) описание периода времени, в течение которого и с какой частотой предполагается использовать каждую систему ИИ с высокой степенью риска;;

(c) категории физических лиц и групп, которые могут пострадать от ее использования в конкретном контексте;

(d) конкретные риски причинения вреда, которые могут повлиять на категории физических лиц или группы лиц, определенные в соответствии с пунктом (c) настоящего параграфа, с учетом информации, предоставленной поставщиком…”

[с. 27, п. 1]

Разработчики ИИ-систем должны проводить оценку воздействия, включая категории лиц, которые могут быть затронуты, и характер возникающих рисков. Важные уточнения по разработке, тестированию и внедрению ИИ-систем является важной частью предотвращение попадания на рынок потенциально опасных для человека технологий.

Наказания и справедливость

Настоящий регламент сопровождается не просто системой этических норм и принципов. Он обладает юридической силой, а его несоблюдение влечёт чётко определённые санкции, включая многомиллионные штрафы. ЕС трактует ИИ не как «особую технологию», а как объект правовой ответственности и, тем самым, закладывает основу для алгоритмической справедливости.

“В соответствии с условиями, изложенными в настоящем Регламенте, государства устанавливают правила в отношении штрафов и других принудительных мер, которые могут также включать предупреждения и нематериальные меры, применимые к нарушениям настоящего Регламента операторами, и принимают все необходимые меры для обеспечения их надлежащего и эффективного применения, принимая во внимание руководящие принципы…”

[с. 99, п. 1]

Нарушения, указанные в статье 5 настоящего Регламента, могут повлечь за собой административные штрафы в размере до 35 млн. евро или до 7% от общего годового оборота предприятия.

Кроме того, предусмотрена отдельная санкция за вводящую в заблуждение информацию, неполную отчётность и скрытие данных от регулирующих органов — до 7,5 млн евро или 1% оборота. Характер наказания учитывает тип, тяжесть и продолжительность нарушений.

Таким образом, европейское право впервые выделяет вредоносные поведенческие практики ИИ в отдельную категорию правонарушений не как побочный эффект технологий, а как осознанный объект юридической оценки. Жесткие меры позволят лучше контролировать поток входящих на рынок ИИ-систем и предотвращать противозаконное применения против прав и свобод человека.

Заключение: ИИ как предмет теории права

Регламент (ЕС) 2024/1689 — это попытка не только ограничить риски от ИИ, но и сформировать новую правовую этику для взаимодействия человека и алгоритма. Он соединяет идеи автономии и прозрачности с техническими реалиями.

Для России, где подобное регулирование пока не является правовой нормой, этот документ может стать ориентиром. Изучение Регламента позволит заранее сформировать идеологию разработки и использовании ИИ в бизнесе. Его принципы — особенно в части прозрачности, защиты прав и наказаний за манипуляцию — неизбежно повлияют и на локальные подходы к ИИ.

В итоге: юридическая определённость — это не тормоз, а условие устойчивого развития технологий. ИИ стал не только мощным инструментом, но и социально ответственным партнёром.

Данный обзор не является экспертным мнением, а лишь обозревает правовую обстановку в сфере ИИ. Экспертный анализ Регламента был проведен АНО "Цифровая экономика" 16.05.24 и опубликован на сайте центра развития искусственного интеллекта при Правительстве РФ.

1 комментарий