AI Act - самый жесткий европейский регламент по ИИ
35 млн. евро штрафа - так ЕС наказывает за нарушения нового регламента по разработке и использованию ИИ.
Евросоюз официально определил, что считать системой искусственного интеллекта. Это не просто формальность — речь идёт о первом в мире комплексном правовом акте, который систематизирует понятие ИИ, устанавливает его границы и вводит единые правила регулирования.
В данной статье рассмотрим что из себя представляет первый регламент по разработке и использованию ИИ.
Введение
Регламент (ЕС) 2024/1689 — первый в мире комплексный закон об искусственном интеллекте. Он вводит обязанности, запреты и контроль за использованием ИИ в разных сферах — от банков и здравоохранения до маркетинга. Но чтобы эти нормы применялись, сначала нужно понять: что считается ИИ?
“ИИ - семейство технологий, которое способствует получению широкого спектра экономических, экологических и социальных выгод во всех отраслях промышленности и социальной деятельности."
Для этого Еврокомиссия опубликовала руководящие принципы, поясняющие юридическое определение системы ИИ. Это не только методичка, но и своего рода «инструкция по выживанию» для бизнеса.
“Целью настоящего Постановления является улучшение функционирования внутреннего рынка путем установления единой правовой основы в частности, для разработки, размещения на рынке, ввода в эксплуатацию и использования систем искусственного интеллекта.”
Определение
С ростом популярности генеративных моделей, глубокого обучения и автоматизированных решений ИИ перестал быть только "технологией будущего" — он стал фундаментом цифровых сервисов. Однако правовое регулирование не поспевает за практикой.
Даже система, работающая автономно и генерирущая выводы на основе данных, может считаться ИИ. Это ключевое отличие подхода ЕС, т.е. не по технологии, а по функции системы.
“Система искусственного интеллекта означает машинную систему, которая предназначена для работы с различными уровнями автономности и которая может проявлять адаптивность…”
Теория "чёрного ящика" и право на объяснение
Одним из центральных вызовов для законодателей стало то, что большинство современных ИИ-систем, которые основаны на глубоком обучении, действуют по принципу «чёрного ящика». Их внутренние механизмы принятия решений сложно объяснимы даже для создателей. Это поднимает вопросы: можно ли использовать такие системы в критически важных сферах — медицине, правосудии, образовании? Почему они принимают те или иные решения? Вследствие этого появляются риски дискриминирующего воздействие на человека.
“Законодательство Союза и национальное законодательство уже предоставляют эффективные средства правовой защиты физическим и юридическим лицам, чьи права и свободы чьи права и свободы пострадали в результате использования систем искусственного интеллекта.”
“Затронутые лица должны иметь право на получение разъяснений в тех случаях, когда решение организации, осуществляющей внедрение (ИИ-систем), основано главным образом на результатах работы определенных систем искусственного интеллекта с высокой степенью риска, которые подпадают под действие настоящего Регламента…”
Это означает, что пользователь, клиент или гражданин может запросить объяснение, если результат взаимодействия с системой ИИ существенно повлиял на его права или свободы. Впервые право на объяснение перестаёт быть этической рекомендацией и становится обязательным требованием для систем с высоким риском.
“Наличие понятной информации о том, как были разработаны системы искусственного интеллекта с высокой степенью риска и как они работают на протяжении всего срока использования, имеет важное значение для обеспечения прослеживаемости этих систем, проверки соответствия требованиям настоящего Регламента, а также мониторинга их функционирования и постмаркетингового мониторинга.”
Таким образом, прозрачность становится юридической обязанностью, которая накладывает последствия на конечный продукт. Наличие прозрачности в действиях ИИ, особенно при принятии решений, должно обеспечиваться в полной мере: логирование процессов принятия решений, доступность информации о наборах данных, описание модели принятия решений. Это поможет предотвратить дискриминирующие воздействия интеллектуальных систем на человека.
Управление рисками и человеческий контроль
Одним из важных вызовов регулирования ИИ является вопрос: “Где граница между технической автономией и юридической ответственностью? Может ли система, действующая без участия человека, быть источником вреда?”.
“Системы искусственного интеллекта, подверженные высокому риску, должны проектироваться и совершенствоваться таким образом, чтобы физические лица могли контролировать их функционирование, обеспечивать их использование по назначению и устранять их последствия на протяжении всего жизненного цикла системы.”
Т.е. любая систем должна обеспечивать:
- технические механизмы для вмешательства человека;
- возможность мониторинга и корректировки поведения;
- понятную инструкцию по безопасной эксплуатации.
Возможные риски использования ИИ должны контролироваться на уровне технических устройств. Возможные группы рисков могут включать в себя этические, социальные и регуляторные проблем. Большая часть рассматриваемого регламента посвящена классификации и рассмотрению возможных рисков при использовании ИИ: глава 3, секция 1, статьи 6-7 рассматривают классификации основных рисков; секция 2 той же главы формирует требования к ИИ-системам с потенциально высоким уровнем риска для человека.
“Поставщики в любом случае должны соблюдать степень строгости и уровень защиты, необходимые для обеспечения соответствия их систем ИИ с высоким риском настоящему Регламенту.”
Интеллектуальные системы должны пользоваться исключительно достоверными наборами данных, исключающие любое возможное дискриминирующее воздействие на человека.
“Качественные данные и доступ к высококачественным данным играют важную роль в обеспечении структуры и эффективности многих систем ИИ, особенно когда используются методы обучения моделей, с целью гарантировать, что система ИИ с высоким уровнем риска будет работать безопасно и не станет источником дискриминации…”
Также настоящие Регламент содержит требования по утверждению созданной интеллектуальной системы и взятии на себя ответственности за возможные антисоциальные риски [с. 23]. Инструкции по тестированию таких систем сформированы в статье 27:
“…лица, осуществляющие внедрение (ИИ-систем), проводят оценку, состоящую из:
(a) описание процессов внедряющей организации, в которых система ИИ повышенного риска будет использоваться в соответствии с ее назначением;
(b) описание периода времени, в течение которого и с какой частотой предполагается использовать каждую систему ИИ с высокой степенью риска;;
(c) категории физических лиц и групп, которые могут пострадать от ее использования в конкретном контексте;
(d) конкретные риски причинения вреда, которые могут повлиять на категории физических лиц или группы лиц, определенные в соответствии с пунктом (c) настоящего параграфа, с учетом информации, предоставленной поставщиком…”
Разработчики ИИ-систем должны проводить оценку воздействия, включая категории лиц, которые могут быть затронуты, и характер возникающих рисков. Важные уточнения по разработке, тестированию и внедрению ИИ-систем является важной частью предотвращение попадания на рынок потенциально опасных для человека технологий.
Наказания и справедливость
Настоящий регламент сопровождается не просто системой этических норм и принципов. Он обладает юридической силой, а его несоблюдение влечёт чётко определённые санкции, включая многомиллионные штрафы. ЕС трактует ИИ не как «особую технологию», а как объект правовой ответственности и, тем самым, закладывает основу для алгоритмической справедливости.
“В соответствии с условиями, изложенными в настоящем Регламенте, государства устанавливают правила в отношении штрафов и других принудительных мер, которые могут также включать предупреждения и нематериальные меры, применимые к нарушениям настоящего Регламента операторами, и принимают все необходимые меры для обеспечения их надлежащего и эффективного применения, принимая во внимание руководящие принципы…”
Нарушения, указанные в статье 5 настоящего Регламента, могут повлечь за собой административные штрафы в размере до 35 млн. евро или до 7% от общего годового оборота предприятия.
Кроме того, предусмотрена отдельная санкция за вводящую в заблуждение информацию, неполную отчётность и скрытие данных от регулирующих органов — до 7,5 млн евро или 1% оборота. Характер наказания учитывает тип, тяжесть и продолжительность нарушений.
Таким образом, европейское право впервые выделяет вредоносные поведенческие практики ИИ в отдельную категорию правонарушений не как побочный эффект технологий, а как осознанный объект юридической оценки. Жесткие меры позволят лучше контролировать поток входящих на рынок ИИ-систем и предотвращать противозаконное применения против прав и свобод человека.
Заключение: ИИ как предмет теории права
Регламент (ЕС) 2024/1689 — это попытка не только ограничить риски от ИИ, но и сформировать новую правовую этику для взаимодействия человека и алгоритма. Он соединяет идеи автономии и прозрачности с техническими реалиями.
Для России, где подобное регулирование пока не является правовой нормой, этот документ может стать ориентиром. Изучение Регламента позволит заранее сформировать идеологию разработки и использовании ИИ в бизнесе. Его принципы — особенно в части прозрачности, защиты прав и наказаний за манипуляцию — неизбежно повлияют и на локальные подходы к ИИ.
В итоге: юридическая определённость — это не тормоз, а условие устойчивого развития технологий. ИИ стал не только мощным инструментом, но и социально ответственным партнёром.
Данный обзор не является экспертным мнением, а лишь обозревает правовую обстановку в сфере ИИ. Экспертный анализ Регламента был проведен АНО "Цифровая экономика" 16.05.24 и опубликован на сайте центра развития искусственного интеллекта при Правительстве РФ.