О подходах Великобритании к управлению искусственным интеллектом

О подходах Великобритании к управлению искусственным интеллектом

Подход Великобритании к регулированию ИИ опирается на существующие правовые рамки, определенные законами о неприкосновенности частной жизни, защите данных, ответственности за качество продукции и т.п. В отличие от ЕС и США он не предусматривает введения новых норм.

К существующим законам предлагается применить пять добровольных принципов, изложенных в техническом документе, так называемой «Белой книге» (A pro-innovation approach to AI regulation – инновационный подход к регулированию ИИ), выпущенным Департаментом науки, инноваций и технологий кабинета министров Великобритании (UK Department for Science, Innovation, and Technology, DSIT) в марте 2023 года:

  • Безопасность, надежность и устойчивость – инструменты ИИ не должны представлять угрозу пользователям, а риски должны обстоятельно контролироваться.
  • Прозрачность и объяснимость – разработчики и распространители ИИ должны объяснять, какие методы составляют основу его работы, а также как с его помощью принимать взвешенные решения.
  • Справедливость – ИИ не должен дискриминировать пользователей, то есть выдавать заведомо несправедливые результаты по отношению к одному человеку или группе людей.
  • Подотчетность и управляемость – необходимо осуществлять строгий надзор за использованием ИИ со стороны государственных органов.
  • Состязательность и возмещение ущерба – у потребителей должны быть способы опротестовывать выданные ИИ негативные результаты.

Кроме того, документ раскрывает вопросы потенциального регулирования ИИ. DSIT подтвердил, что на данный момент Великобритания будет следовать предлагаемому правительством подходу по установлению межсекторальных принципов, которые должны соблюдаться существующими регулирующими органами.

О подходах Великобритании к управлению искусственным интеллектом

Комитет по науке, инновациям и технологиям Палаты общин в мае текущего года опубликовал отчет сессии 2023-24 годов Governance of Artificial Intelligence, в котором представлен всесторонний обзор управления ИИ и включены рекомендации для правительства.

В нем рассматривается прогресс в регулировании искусственного интеллекта в Великобритании и на международном уровне, а также дается оценка и пересматриваются 12 ранее выявленных проблем управления ИИ:

1. Предвзятость. Разработчики и установщики (распространители) моделей и инструментов ИИ должны не просто признавать наличие субъективной оценки используемого набора данных для тестирования, обучения, эксплуатации и совершенствования ИИ, содержащего неизбежные предубеждения, но и принимать меры для смягчения последствий. С этой целью правительство Соединенного Королевства тесно сотрудничает с Комиссией по равенству и правам человека (Equality and Human Rights Commission) и Управлением комиссара по информации (Information Commissioner’s Office, ICO) для разработки новых решений по устранению субъективизма и дискриминации в системах ИИ.

Другие государственные органы также приняли меры для устранения данных проблем. Например, в области здравоохранения Агентство по регулированию лекарственных средств и товаров медицинского назначения (Medicines and Healthcare products Regulatory Agency) заявило, что будет требовать от разработчиков новых медицинских устройств, работающих на основе ИИ, подробного описания того, как они будут бороться с предвзятостью.

2. Конфиденциальность. Системы защиты конфиденциальности и данных должны учитывать растущие возможности и распространение моделей и инструментов ИИ, а также обеспечить правильный баланс между защитой неприкосновенности частной жизни и потенциальных преимуществ, которые можно получить от внедрения ИИ, особенно в таких секторах, как правоохранительная деятельность.

ICO, один из главных регуляторов контроля приватности в Великобритании, уделяет значительное внимание последствиям распространения ИИ и стремится обеспечить, чтобы все звенья цепочки поставок (разработка, обучение и внедрение моделей) знали о своих обязательствах в соответствии с существующим законодательством в области данных. Так, в документе ICO, в котором излагается стратегический подход к управлению ИИ (Regulating AI: The ICO’s strategic approach, April 2024), обозначено, что многие риски, связанные с внедрением ИИ, возникают из того, как данные, особенно персональные, используются при разработке и внедрении систем ИИ. Кроме того, заявлено, что, обеспечивая соблюдение закона о защите данных ICO гарантирует, что организации, ответственные за обработку чувствительной информации, должны выявлять и снижать риски, а также быть в готовности предоставить соответствующие отчетные документы. Наряду с этим, ICO указывает, что в таких чувствительных областях как технология распознавания лиц, ее внедрение должно быть соразмерным и обеспечивать правильный баланс между вторжением в частную жизнь и целью, которую она преследует.

Отраслевые регулирующие органы должны опубликовать подробное руководство, чтобы помочь разработчикам ИИ найти равновесие между обеспечением безопасности конфиденциальных данных и получением предполагаемых преимуществ от внедряемой технологии. В случаях, когда регулирующие органы полагают, что такой баланс, соответствующие законы или нормативные требования не соблюдены, то должны применяться санкции, вплоть до запрета на использование моделей или инструментов ИИ.

3. Искажение информации. Злоумышленники, которые используют искусственный интеллект для введения в заблуждение других людей или допускают, чтобы такое деяние совершалось беспрепятственно, должны быть привлечены к ответственности.

Новые приложения ИИ значительно расширили возможности киберпреступников выдавать поддельный контент за информацию, связанную с конкретными лицами или организациями. С этого момента степень распространения проблемы с искажением информации в обществе и экономике стала более очевидной.

В парламентском отчете подчеркивается, что в последнее время инструменты ИИ, способные создавать фейковые сексуальные изображения и видео, достигли высокого уровня. По мнению законодателей, полномочия Ofcom, предоставляемые Законом о безопасности в Интернете (Online Safety Act 2023), должны быть реализованы таким образом, чтобы устранить разрастание угрозы, создаваемой deepfake-онлайн изображениями.

Британское правительство 15 мая с.г. внесло в парламент страны поправку к законопроекту об уголовном правосудии (Criminal Justice Bill, с ноября 2023 года находится на рассмотрении Палаты общин), предусматривающую наказание за создание поддельных интимных изображений без согласия субъекта или установку предназначенного для этого оборудования.

Проблема искажения информации также становится все более заметной в политике по мере приближения времени проведения различного вида выборов. Например, deepfake-аудио и видеоклипы, в которых искажалось мнение политических конкурентов, во время предвыборной кампании в парламент страны в июле 2024 г., получили широкий охват электоральной аудитории на онлайн-платформах. Ранее Национальный центр кибербезопасности (National Cyber Security Centre), входящий в состав Центра правительственной связи (Government Communications Headquarters, GCHQ), в своем ежегодном обзоре за 2023 год отмечал, что наибольшую опасность представляет способность ИИ использовать существующие методы. Например, для изготовления сфабрикованного контента почти наверняка будут применяться большие языковые модели (Large Language Models), созданные искусственным интеллектом гиперреалистичные боты облегчат распространение дезинформации, а использование дипфэйков при осуществлении манипуляции общественным мнением через СМИ станет более совершенным.

Следует отметить, что кабинет министров в своей деятельности опирается на положения действующих законодательных актов, таких как Закон о выборах (Elections Act 2022), Закон о национальной безопасности (National Security Act 2023) и Закон о безопасности в Интернете 2023 года, как на способные помочь в решении проблемы искажения информации. Так, с целью снизить угрозу иностранного вмешательства во всеобщие выборы депутатов Палаты общин, правительство Великобритании, объединив представителей исполнительной ветви власти, разведывательного сообщества и промышленности, создало т.н. Целевую группу по защите демократии (Defending Democracy Taskforce intended).

Некоторые интернет-платформы и технологические компании также признали свою роль в борьбе с создаваемым ИИ контентом, направленным на вмешательство в демократический процесс. Так, в феврале 2024 года на Мюнхенской конференции по безопасности группа компаний, включая Google, Meta (запрещена в РФ), Microsoft, OpenAI, TikTok и X (бывший Twitter), объявила о разработке комплекса обязательств по внедрению технологий противодействия вредоносному контенту, создаваемому ИИ для обмана избирателей.

О подходах Великобритании к управлению искусственным интеллектом

4. Доступ к данным. Ответственное управление конфиденциальной информацией являются необходимыми условиями для здоровой, конкурентоспособной и инновационной индустрии ИИ.

В отчете Комитета Палаты общин подчеркивается, что разработчики и исследователи ИИ в своей деятельности опираются на высококачественные исходные данные, создавая потенциальные проблемы конкуренции, которые могут вызвать усиление консолидации на рынке ИИ. Так, в начале 2023 года компания Microsoft получила эксклюзивные права на коммерциализацию некоторых технологий OpenAI для корпоративных клиентов и внедрение ИИ платформ OpenAI во многие свои продукты, включая Office и службу кодирования GitHub. Взамен OpenAI получила доступ к ресурсам облачных вычислений Microsoft, необходимым для обучения чат-бота ChatGPT и ускоренного выхода на рынок. В связи с этим британское Управление по конкуренции и рынкам (Competition and Markets Authority, CMA) инициировало расследование отношений между компаниями Microsoft и OpenAI, чтобы определить, не привело ли это партнёрство к ситуации, которую можно рассматривать в контексте их слияния, и какое влияние может оказать данное объединение на уровень конкуренции в Великобритании.

В CMA считают, что ведущие разработчики ИИ занимают сильные позиции в одном или нескольких критически важных исходных материалах, необходимых для создания моделей ИИ на начальном этапе. В последующем эти производители контролируют ключевые точки доступа на международный рынок для развертывания своих моделей ИИ. Данный факт вызывает опасения по поводу того, что эти компании могут использовать свои властные полномочия в цепочке создания стоимости в ущерб свободной и открытой конкуренции.

Объем исходных данных, необходимых для обучения современных моделей машинного интеллекта, играет решающую роль в создании инновационных инструментов ИИ. В связи с этим рассматривается возможность создания национального банка данных, используя материалы правительственных ведомств, британских университетов, средств массовой информации и других источников, которые затем можно было бы предоставить разработчикам.

Как регулятор, отвечающий за развитие конкурентной рыночной среды и борьбу с злоупотреблением доминирующим положением, CMA должно выявлять случаи нарушения рыночных правил и использовать свои полномочия для их пресечения. Это может выражаться в наложении штрафов или требовании реструктуризации предлагаемых сращиваний капиталов.

По мнению Комитета Палаты общин, правительство должно поддерживать появление в стране большего числа стартапов в области ИИ, обеспечивая им доступ к массивам высококачественных информационных материалов, необходимых для внедрения инноваций. Это может включать в себя облегчение доступа к обезличенным открытым сведениям, размещенным в интернрет-хранилищах правительства Великобритании data.gov.uk, национальной службы здравоохранения и ведущих СМИ при условии соблюдения гарантий достоверности сведений.

Также в нашем сообществе VK статья — О деятельности Центра квантовых коммуникаций Великобритании. Подписывайтесь на наши социальные сети, чтобы оставаться в курсе всех событий мира инфобеза.

5. Доступ к вычислениям. Правительство Великобритании определило доступ к вычислительным ресурсам как ключевой фактор дальнейшего развития исследований и бизнеса в области ИИ и объявило о создании ресурса исследований ИИ и нового кластера суперкомпьютеров. В бюджете на 2024 год заявлено, что правительство определит, как будет регулироваться доступ к новейшим публичным компьютерным ресурсам, чтобы исследователи и инновационные компании могли получить необходимые им и безопасные вычислительные мощности.

Так, Агентство перспективных исследований и изобретений (Advanced Research and Invention Agency, ARIA) в марте текущего года запустило программу Scaling Compute, направленную на снижение стоимости оборудования для разработки ИИ. В рамках этой инициативы выделено 42 млн фунтов стерлингов на поиск новых, более экономичных альтернатив энергоемкому оборудованию, которое в настоящее время используется для поддержки резкого роста спроса на вычисления, вызванного появлением генеративного ИИ.

6. Работа в режиме «черного ящика». Процессы принятия решений некоторых моделей ИИ не поддаются объяснению и будут оставаться таковыми. Поэтому возникает необходимость проверки результатов их работы.

В частности, воплощением проблемы «черного ящика» стало появление больших языковых моделей (Large Language Models, LLM), которая является одним из самых парадигмальных проявлений ИИ, поскольку она ставит под сомнение устоявшиеся представления о возможности объяснения и понимания. Учитывая сложность таких моделей ИИ, отправной точкой должно стать признание того, насколько невозможно понять, как именно многочисленные инструменты ИИ формируют свои результаты, а также понимание необходимости формирования нового мышления и нормативного подхода, учитывающего невозможность полного объяснения.

Регулирующие органы, которым поручено реализовать правительственные принципы управления ИИ высокого уровня, должны в своем подходе к этим моделям и инструментам уделять первоочередное внимание тестированию и проверке их результатов и выяснять их происхождение.

7. Открытый исходный код (Open-Source Challenge, OSC). Риски, связанные с OSC, подробно описаны в докладе, представленном Фондом по наблюдению за Интернетом (Internet Watch Foundation, IWF). В документе рекомендовано усилить регулятивный надзор за моделями с открытым исходным кодом и наборами данных, на основе которых они создаются, до их выпуска, а также ввести меры предосторожности со стороны разработчиков, чтобы предотвратить создание и распространение вредного и незаконного контента посредством собственных моделей ИИ.

8. Интеллектуальная собственность и авторские права. Растущий объем судебных разбирательств, связанных с предполагаемым использованием произведений, защищенных авторским правом, для обучения моделей и инструментов ИИ, а также ценность высококачественных данных, необходимых для обучения будущих моделей, подчеркивают необходимость создания устойчивой системы, признающей неизбежные компромиссы и устанавливающей четкие, подлежащие исполнению законодательные нормы. В этих обстоятельствах правительству рекомендовано выработать решение, основанное на системе лицензирования, регулирующей использование материалов, защищенных авторским правом, для обучения моделей ИИ.

9. Определение ответственности за ущерб, связанный с ИИ. Данный вопрос относится не только к компетенции судов. Правительство и регулирующие органы также должны играть свою роль.

В ходе проведения в 2023 году консультаций при подготовке «Белой книги» кабинет министров вынес на общественное обсуждение в качестве одного из ключевых вопросов проблему того, как распределить ответственность по всей цепочке поставок инструментов ИИ. Большинство респондентов, участвовавших в данном мероприятии, одобрили дальнейшее участие правительства для обеспечения справедливого и эффективного распределения ответственности. Затем в мае 2024 года исполнительный орган власти запросил мнение экспертов о том, требуются ли обновления в рамках гражданской или уголовной ответственности для учета продолжающегося появления передовых моделей ИИ. Ожидается, что эти события повлияют на решение о том, следует ли вводить специфичное законодательство для ИИ.

Ни один разработчик, установщик или посредник, который использует ИИ для нанесения ущерба, не должен быть освобожден от ответственности. Кабинет министров в рамках межправительственной инициативы совместно с отраслевыми регулирующими органами должны опубликовать руководство поясняющее, в каких случаях ответственность за неправомерное использование ИИ будет наступать в соответствии с действующим законодательством. Отраслевые регуляторы по мере необходимости будут обеспечить разработчиков и поставщиков моделей и инструментов своим руководством по ответственности за причинение вреда, связанного с ИИ.

О подходах Великобритании к управлению искусственным интеллектом

10. Занятость. Признана важность подготовки работников к сфере экономики, основанной на ИИ, как с точки зрения квалификации, так и права на трудоустройство.

Искусственный интеллект меняет характер труда, и по мере развития технологии этот процесс будет ускоряться, что поставит под угрозу некоторые рабочие места. В то же время, при условии, что работники будут обладать навыками, позволяющими эффективно использовать ИИ, можно выиграть в производительности. Развитие кадрового потенциала должно начинаться в школе. Кроме того, приоритетное внимание должно быть уделено таким инициативам, как «Пожизненная гарантия навыков» (Lifetime Skills Guarantee) и «Учебные курсы по развитию цифровых навыков» (Digital Skills Bootcamps).

11. Международная координация. Создание режима глобального управления ИИ может быть нереалистичным и не желательным, даже если международное сотрудничество принесет выгоды в экономике и в области безопасности.

Глобальный характер дискуссий по вопросам управления ИИ обуславливается ростом числа инициатив на международном уровне, направленных на достижение консенсуса в отношении рамок управления разработкой и внедрением этой технологии.

Так, Великобритания участвует в текущих инициативах Совета Европы, G7, G20, Организации экономического сотрудничества и развития, Организации Объединенных Наций, а также подписала ряд двусторонних соглашений, предусматривающих совместную разработку и управление ИИ.

На Сеульском саммите по ИИ в мае 2024 году группа стран, включая Великобританию, США и Европейский союз, объявила о намерении более тесно сотрудничать по вопросам, связанным с безопасностью, инновациями и инклюзивностью ИИ. В Сеульской декларации признается важность взаимодействия между системами управления ИИ в соответствии с подходом, основанным на оценке рисков, для получения максимальных выгод и устранения широкого спектра угроз, связанных с ИИ. В коммюнике, по итогам саммита подтверждается, что 27 стран договорились проработать общие пределы рисков, возникающих в ходе разработки и развертывания передовых инструментов ИИ, в рамках более широкой деятельности по формированию глобальных стандартов для устранения этих опасностей.

12. Экзистенциальный риск от использования ИИ.

В декларации, подготовленной по результатам британского Саммита по безопасности искусственного интеллекта (AI Safety Summit 2023), описаны риски «потери контроля», связанные с ИИ. Они классифицируются следующим образом:

• люди все чаще передают право принятия важных решений ИИ, человеку становится все сложнее возвращать себе контроль над ситуацией;

• в некоторые системы ИИ закладывается способность оказывать влияние на пользователя и стремление уменьшить контроль с его стороны.

В худшем случае могут возникнуть такие риски, как массовая безработица, терроризм с использованием ИИ или даже потеря человечеством контроля над системами ИИ. При внедрении принципов, изложенных в «Белой книге», регулирующая деятельность должна быть сосредоточена на воздействии, оказываемом здесь и сейчас. Оценка рисков и реагирование на них должны быть в первую очередь обязанностью аппарата национальной безопасности Великобритании при поддержке Института безопасности ИИ (AI Safety Institute).

Если будет установлено, что степень экзистенциального риска ИИ возросла, обсуждение последствий и возможных ответных мер должны проводиться на международных форумах.

В целом в отчете, подготовленном Комитетом по науке, инновациям и технологиям Палаты общин Великобритании, всесторонне освещены неопределенности, имеющие решающее значение для формирования будущей системы управления искусственным интеллектом.

В парламентском отчете подчеркивается, что успех британского подхода к управлению ИИ будет в значительной степени определяться способностью соответствующих отраслевых ведомств реализовать на практике сформулированные правительством принципы. В качестве факторов, которые будут влиять на эффективность этой работы, из них выделены следующие:

– Предоставление полномочий. Правительству рекомендовано провести анализ пробелов в нормативной базе, чтобы определить, нужны ли контролирующим организациям дополнительные компетенции (права) для надлежащего реагирования на возрастающее использование ИИ.

– Координация деятельности. Универсальный характер ИИ в некоторых случаях приведет к дублированию сфер регулирования и возможному отсутствию ясности в отношении ответственности различных надзорных ведомств. Это может привести к путанице со стороны потребителей, разработчиков и распространителей технологии, а также самих регулирующих органов. Центральный руководящий комитет (Central Steering Committee), который будет создан правительством в текущем году должен быть наделен полномочиями по предоставлению рекомендаций, а при необходимости – указаний, чтобы помочь регуляторам ориентироваться в любых повторяющихся полномочиях, соблюдая при этом их независимость.

– Обеспечение ресурсами. Определенное беспокойство вызывает потенциал регулирующих органов. Например, Ofcom совмещает реализацию широкого набора новых полномочий, возложенных на него Законом о безопасности в Интернете от 2023 года, с разработкой комплексных мер по внедрению ИИ в рамках своего правового поля. Другие ведомства должны будут проводить расследования, и крайне важно, чтобы у них для этого были полномочия и финансовые средства. По мнению Комитета по науке, инновациям и технологиям Палаты общин 10 млн фунтов стерлингов, выделяемых на поддержку контролирующих структур необходимых для реагирования на растущее доминирование искусственного интеллекта недостаточно для решения этой задачи.

Таким образом, Великобритания намерена придерживаться своего, отличного от других пути, который опирается на собственный опыт инноваций в сфере законодательства и международный кластер разработчиков ИИ.

Проблема необъяснимости процессов принятия решений искусственным интеллектом при наличии сильных предсказательных возможностей остается актуальной, в связи с чем, намечены подходы к ее решению. Вместе с тем обозначены пути к обеспечению контроля проистекающих процессов посредством тщательного тестирования результатов работы ИИ, увеличению финансовой поддержки отраслевых регуляторов, а также подчеркнуты важность поддержания общественного доверия к инновационным технологиям и международного сотрудничества по вопросам управления ИИ.

Больше полезной информации об ИТ и ИБ — в наших соцсетях:
Telegram
Вконтакте
Одноклассники
Дзен

11
Начать дискуссию