Цифровая граница: как Китай контролирует искусственный интеллект: часть 2

Мы продолжаем делиться с вами тем, как в Китае регулируют искусственный интеллект и работу с большими данными. В первой части мы рассказали о развитии законодательства в этой сфере. Теперь поговорим о том, как власти контролируют соблюдение законов, как проходят судебные разбирательства и как это влияет на технологические компании.

Цифровая граница: как Китай контролирует искусственный интеллект: часть 2

Административное принуждение

В 2023 году власти Китая сосредоточились на двух главных направлениях контроля за искусственным интеллектом (ИИ): регистрации алгоритмов и проверке больших языковых моделей (LLM).

Теперь каждая китайская компания, которая предоставляет интернет-услуги с помощью рекомендательных алгоритмов, обязана их регистрировать. Эта процедура охватывает пять типов алгоритмов:

  • генерация и синтез;
  • персонализированные рекомендации;
  • ранжирование и отбор;
  • поиск и фильтрация;
  • диспетчеризация и принятие решений.

При регистрации компании должны предоставить информацию об используемых алгоритмах, включая:

  • описание принципов работы;
  • используемые данные и модели;
  • стратегии вмешательства;
  • информацию об услугах;
  • оценку рисков и меры по их предотвращению.

Зарегистрировать алгоритмы непросто — процесс занимает 2-3 месяца. Сейчас главный способ контроля — это проверка через магазины приложений. Перед публикацией приложения магазин проверяет, зарегистрированы ли алгоритмы. Пока власти не штрафуют компании, если они не зарегистрировали алгоритмы. Но крупным компаниям регулярно напоминают, что это нужно сделать.

В то же время большие языковые модели проверяют на безопасность. Это требование прописано в статье 17 «Временных мер по управлению генеративными службами искусственного интеллекта». Компании должны подать специальные формы и отчеты, а также пройти техническое тестирование.

Регуляторы проверяют модели по документу «Базовые требования безопасности для генеративных служб искусственного интеллекта». Если компания использует чужие зарегистрированные языковые модели, ей достаточно предоставить подробный отчет. Но если компания создала собственную модель, придется пройти строгое тестирование. Особенно тщательно проверяют качество данных для обучения модели и их законность.

В 2023 году эти два механизма контроля — регистрация алгоритмов и проверка LLM — стали главными юридическими темами в сфере ИИ. Теперь регистрация алгоритмов — обязательный пункт для всех компаний в отрасли. А для языковых моделей разработали подробные правила проверки и контроля.

Система регулирования только формируется. Нужно решить, насколько строгим должен быть контроль и как распределить полномочия между разными ведомствами. Но отрасль развивается так быстро, что бизнесу приходится быстро подстраиваться под новые требования. Это показывает, как сложно регулировать генеративный ИИ в Китае и какие проблемы еще предстоит решить.

Что изменится в 2024 году

В 2024 году регистрация алгоритмов и проверка языковых моделей станут еще важнее. Контролирующие органы разработают более подробные и понятные правила проверки. Эти правила будут охватывать весь процесс — от начала до конца.

С 1 декабря 2023 года вступили в силу «Меры по этической экспертизе науки и технологий». Теперь компании обязаны проверять этичность разработки и использования моделей ИИ. Это значит, что, помимо технической проверки и проверки безопасности, независимые комитеты по этике должны убедиться, что на всех этапах исследований и внедрения соблюдаются общественные этические принципы. В 2024 году этическая экспертиза станет еще одним обязательным требованием для компаний в сфере ИИ.

Судебная практика в секторе ИИ

В 2023 году технологии ИИ распространились по всему миру, и это вызвало много споров о защите интеллектуальной собственности. Похожая ситуация наблюдалась и в Китае — там рассматривалось знаковое дело о нарушении прав интеллектуальной собственности в сфере генеративного ИИ. Речь шла об изображениях, которые пользователи создавали с помощью ИИ. Главный вопрос был в том, нужно ли защищать такие изображения авторским правом, и если да — кому должны принадлежать права.

Истец в этом деле использовал множество промптов для доработки сгенерированных ИИ изображений. Он проявил индивидуальный подход и внес большой вклад в создание конечного изображения. Учитывая это, суд решил, что спорное изображение можно считать интеллектуальным достижением по закону об авторском праве, и его можно отнести к «художественным произведениям». Это значит, что работы, созданные с помощью ИИ, могут получить правовую защиту. Но для этого они должны быть оригинальными и содержать творческий вклад, даже если их создал не человек напрямую.

Председательствующий судья выразила надежду, что это решение побудит больше людей использовать генеративный ИИ и поддержит рост отрасли через защиту авторских прав.

Но юристы до сих пор спорят об этом деле. Вот главные вопросы:

  • Насколько велик реальный вклад человека при использовании генеративного ИИ?
  • Достаточен ли этот вклад для признания человека автором по закону об авторском праве?
  • Можно ли считать генеративный ИИ просто инструментом, как фотоаппарат? Или из-за сложных алгоритмов, работу которых мы не видим, произведение создает именно машина?
  • Не станет ли слишком легко получить защиту для любых произведений? Не ограничит ли это возможности для человеческого творчества?

Все более актуальной становится и проблема законного использования данных для обучения ИИ. Чтобы обучить большие модели, нужно очень много качественных данных. Но если проверять законность каждого фрагмента данных, разработка ИИ может стать слишком дорогой для бизнеса. Эта проблема ярко проявилась в деле «Нью-Йорк Таймс против Microsoft и OpenAI». Эксперты и юристы активно обсуждают это дело. Главный вопрос — как судебная практика может найти баланс между поддержкой инноваций и соблюдением законов.

В целом слияние ИИ и права ставит сложные задачи:

  • определение прав собственности на контент, созданный ИИ;
  • установление законного права собственности;
  • распределение ответственности за нарушения.

Пока в существующих законах нет четких ответов на эти важные вопросы. Технологии создания контента с помощью ИИ развиваются, и становится ясно, что нужен комплексный и взвешенный подход. Столкновение ИИ и права создает не только проблемы, но и возможности для инноваций в правовой сфере.

Что ждет судебную систему в сфере ИИ в 2024 году

В 2024 году ожидается больше судебных разбирательств, связанных с генеративным ИИ. Это будут споры об авторских правах и иски о недобросовестной конкуренции. Законы не успевают за практикой, поэтому участники рынка будут чаще обращаться в суды. Они будут чаще обращаться в суды и создавать прецеденты в этой быстро развивающейся области.

Вероятно, из-за роста числа судебных дел законодатели быстрее разработают законы, которые учитывают особенности технологий ИИ. Отрасль быстро меняется, поэтому нужны гибкие законы, которые помогут отвечать на новые вызовы генеративного ИИ.

2023 год стал «первым годом» регулирования генеративного ИИ в Китае. Страна достигла значительного прогресса: усилила административный надзор, научилась решать судебные споры, начала внедрять меры регулирования и учитывать этические аспекты. Все эти шаги показывают, что Китай активно участвует в управлении технологиями ИИ и стремится найти баланс между поддержкой инноваций и ответственным подходом к их развитию.

1010
11
Начать дискуссию