Регулирование ИИ: опыт России и зарубежья

Всем привет! На связи Центр Инноваций в образовании «Пуск» МФТИ. Новые технологии открывают большие перспективы, что неизбежно вызывает необходимость четкой юридической регламентации отношений в новых реалиях. Мы поговорили на эту тему с юристами из юридической компании ККМП.

С развитием технологий ИИ появляются риски, связанные с их применением. Граждан и бизнес волнуют не только этические вопросы, но и возможность возмещения убытков, которые могут возникнуть при использовании ИИ.

Регулирование ИИ: опыт России и зарубежья

Работа над созданием и совершенствованием механизмов регулирования ИИ ведется как в России, так и за рубежом. В январе 2024 года Президент РФ поручил парламенту и правительству внести изменения в законодательство, устанавливающие ответственность за вред, причиненный гражданам и их имуществу в результате тестирования и использования технологий ИИ, о чем мы писали в одном из наших дайджестов. Вопрос об ответственности за вред, причиненный ИИ, также был поднят в резолюции Генеральной Ассамблеи ООН, принятой в марте, в которой содержатся рекомендации по обеспечению «эффективных процедур возмещения ущерба и привлечения к ответственности за автоматизированные решения, принятые системами ИИ». Мы упоминали это положение в предыдущих публикациях.

Рассмотрим самые важные нормативные правовые акты, законопроекты, судебная практика, новости и тенденции, связанные с ответственностью за вред, причиненный использованием ИИ.

Обязательное страхование ответственности. Один из способов снижения рисков — обязательное страхование гражданской ответственности за вред, причиненный при применении технологий ИИ. В России уже идет работа по реализации такой системы в рамках экспериментальных правовых режимов. Законопроект № 512628-8, внесенный в Госдуму в декабре 2023 года, предусматривает обязательное включение в программу экспериментального правового режима (ЭПР) положения о страховании участниками ЭПР своей гражданской ответственности за причинение вреда жизни, здоровью или имуществу других лиц при осуществлении деятельности в рамках ЭПР, включая сферу ИИ. Для защиты интересов потенциальных пострадавших субъект ЭПР обязан вести реестр всех лиц, взаимодействующих с ним в рамках ЭПР, с указанием страховой суммы по договору страхования. Оценкой каждого инцидента и признанием его страховым случаем займется специально созданная комиссия.

Строгая ответственность за вред, причиненный ИИ. В Европейском Союзе существует другой подход к регулированию ответственности за вред, причиненный ИИ. Проектом директивы Европарламента и Европейского совета предлагается установить «строгую ответственность» (независимо от вины) для производителя некачественной продукции, использующей технологии ИИ. Соответствующие изменения планируется внести в директиву ЕС об ответственности за некачественную продукцию (Product Liability Directive).

В пояснении к проекту директивы указывается, что обычное правило ответственности за виновное причинение вреда в случае с ИИ создает слишком тяжелое бремя доказывания для пострадавших, так как механизмы работы ИИ пока малоизвестны большинству пользователей. В свою очередь, суды стран ЕС, защищая слабую сторону, прибегают к толкованию норм закона case by case, что приводит к правовой неопределенности и мешает разработчикам ИИ развивать технологии. По мнению разработчиков, принятие этой директивы создаст единое правовое поле для регулирования отношений, связанных с причинением вреда ИИ, что обеспечит ясность и единообразие в правоприменительной практике. Документ находится на стадии подготовки к чтению на пленарном заседании Европарламента.

Возмещение вреда от ИИ на практике. Одним из первых случаев возмещения вреда, причиненного ИИ, стало дело против корпорации Tesla. Автомобиль Tesla Model 3 с установленной системой автопилота на основе ИИ неожиданно свернул с трассы и врезался в дерево. В результате погиб водитель, а пассажиры, среди которых были несовершеннолетние, получили серьезные травмы. Истец утверждал, что компания продала автомобиль с автопилотом, зная о его недостатках, которые привели к катастрофе. Сумма иска составила более 400 млн долларов. Осенью 2023 года суд присяжных вынес решение в пользу Tesla, указав на недоказанность факта использования автопилота во время аварии. Представители Tesla также утверждали, что водитель был в состоянии алкогольного опьянения. Хотя суд отказал в иске по формальным основаниям, это дело показало, что существующие правовые рамки не учитывают все риски, связанные с ИИ, и требуют нового подхода.

Помимо непосредственного причинения вреда, ИИ создает риски для авторских прав. Например, The New York Times (NYT) обвиняет компании Google, OpenAI и Meta* в использовании защищенных авторским правом материалов для машинного обучения без согласия правообладателей. Ранее NYT предъявила иск по аналогичному поводу Microsoft и OpenAI. Позднее судебный процесс против этих компаний инициировали 8 других крупных газет, включая New York Daily News и Chicago Tribune. Исход этих дел может создать важный прецедент, который определит приоритеты между развитием ИИ и защитой авторских прав. Использование защищенных авторским правом материалов для машинного обучения в американском праве может быть оправдано доктриной fair use, позволяющей в определенных случаях использовать контент без разрешения правообладателей.

Стремительное развитие новых технологий, особенно в сфере ИИ, требует от законодателей и правоприменителей гибкости и готовности адаптировать правовую систему к новым условиям.

*Деятельность Meta (соцсети Facebook и Instagram) запрещена в России как экстремистская

33
Начать дискуссию