Вступил в силу Закон ЕС регулирующий ИИ: что нас ждет впереди

По большому счету, это первый в мире закон, подробно регламентирующий все аспекты связанные с ИИ. Европейские законодатели пошли по пути ранжирования рисков, разделив нейросети на четыре категории. Каковы основные тезисы закона и как это повлияет на развитие нейросетей в будущем?

Регулирование непознанного

О необходимости законодательного регулирования искусственного интеллекта говорят уже давно. Многие, не последние люди в этой области, видят в его бесконтрольном развитии угрозу человечеству. Например, в марте 2023 года свыше тысячи специалистов, во главе с И. Маском и С. Возняком опубликовали открытое письмо, с призывом приостановить развитие нейросетей, обладающих большей мощностью нежели GPT-4.

Однако, это не так просто, как может показаться на первый взгляд. Законотворчество, основывается на прецедентах и общепризнанных нормах международного права. Искусственный интеллект еще 10-15 лет не то что не был распространен, а даже известен в основном по фантастическим произведениям литературы или кино (например скайнет в Терминаторе). Прецедентов просто нет и как регулировать то что еще до конца не изучено?

В Евросоюзе всерьез озаботились проблемой в 2020 году, и вот спустя четыре года работы специалистов в области права, закон пройдя все необходимые процедуры вступил в силу.

Ранжирование по рискам

Понимая, что ИИ приспосабливается к выполнению различных задач, закон регламентирует разделение нейросетей на четыре группы по степени риска: безопасные; модели с минимальным риском; с высокой степенью риска и запрещенные системы ИИ.

Нейросети недопустимого риска

Которые будут запрещены к использованию на территории ЕС, относятся в основном к процессам биометрической идентификации и категоризации. Например: распознавание эмоций за рабочим местом, социальный скоринг - т.е. составления цифрового рейтинга граждан.

Также под запрет попадают системы ИИ, базирующиеся на биометрических данных: таких как раса, сексуальная ориентация и предиктивная полицейская деятельность - системы прогнозирования возможности совершения преступления конкретным человеком.

Системам высокого риска

Посвящена основная часть закона. К этой категории относятся модели которые могут представлять угрозу жизни и здоровью людей. Под это понятие попадает масса сфер: беспилотный транспорт, роботизированная хирургия, системы анализирующие резюме при приеме на работу и даже модели оценивающие знания студентов на экзамене.

Компании внедряющие и применяющие такие модели должны соответствовать определенным требованиям и обязательствам, для допуска на рынок ЕС. Эти обязательства включают оценку рисков и меры по смягчению последствий, а также высококачественные наборы данных, которые минимизируют предвзятость.

Модели с ограниченным риском

Наверное больше всего затрагивают интересы профессиональных пользователей. Да, это в том числе ChatGPT. Законодательство никоим образом не ограничивает их использование, но требует прозрачности. Что это значит?

Контент, созданный ИИ, должен быть обозначен как искусственно сгенерированный. Такое же требование распространяется на аудио- и видеоконтент, созданный с использованием дипфейков.

Минимальный риск

Тут полная свобода и даже непрозрачность. Какие модели относятся к этой категории? Например: видеоигры с поддержкой или фильтры для защиты от спама. При этом представители ЕС отдельно отмечают, что подавляющее большинство систем ИИ, используемых сейчас в ЕС, попадают именно в эту категорию.

Человечество в безопасности?

Несмотря на то, что многие эксперты в области ИИ высказались относительно закона в положительном ключе, остается масса вопросов.

В первую очередь они относятся к правоприменительной практике. Ну например ни для кого не секрет, что Китай уже давно внедряет системы социального скоринга на государственном уровне для своих граждан. Что им может помешать ранжировать таким же образом европейцев, базируясь на данных как минимум социальных сетей и на этой основе, например, запрещать им въезд в свою страну или ограничивать ведение бизнеса с предпринимателями с низким рейтингом для своих фирм?

Не совсем понятно, как будет применяться закон в отношении распространителей дипфейков. Допустим, гражданин Коста-Рики находясь в своей стране создаст дипфейк на какого-то лидера страны ЕС и запостит его в соцсети? Естественно немаркированный фейк распространится на территории ЕС, от соцсети потребуют удалить его, но для этого потребуется определенное время. Создатель фейка вроде как и нарушил закон ЕС, но как его привлечь к ответственности? В общем таких вопросов немало.

Кстати, за нарушение закона компаниям грозят немалые штрафные санкции - €35 млн или 7% от глобального оборота.

В первую очередь закон коснется американских компаний - лидеров в области разработки нейросетей. Игнорировать закон они не могут, а рынок ЕС огромен, поэтому важен. Как будут действовать в этих условиях компании, покажет время.

Но как бы то ни было - первый серьезный шаг к регулированию ИИ сделан. По мнению специалистов, принятый закон станет серьезным прецедентом для большинства юрисдикций, а значит базируясь на нем, многие государства примут свои законодательные акты.

Но для многих очевидно, что только правовым регулированием человечество вряд ли полностью обезопасит свое будущее. Этические и моральные самоограничения, должны стать не менее важным фактором в этом вопросе. Однако глядя на современный мир в это как-то слабо верится.

5 комментариев

Полиция Тьюринга

1

Ну вот, теперь будет внятная законодательная база))

ну я думаю что регулировать ИИ нужно и крайне жестко

Конечно нужно, но не поздно ли взялись?