Этика и безопасность применительно к ИИ

Я пишу про искусственный интеллект, главным образом в разрезе вариантов его использования (имеющегося и потенциального). Мой тон, как правило, скорее позитивный (и я в самом деле отношусь к развитию этой технологии с большим энтузиазмом). Однако, как и у любой абсолютно технологии, у ИИ есть определенные риски. В разных постах мы их коротко затрагивали, но сегодня я весь пост посвящу именно им.

Какие риски вообще есть

Надо признаться, на этот вопрос пока нет достаточно полного ответа, однако есть некоторые очень хорошие исследования. Исследователи Массачусетского технологического института (Massachusetts Institute of Technology, MIT) совместно с коллегами из других исследовательских организаций составили большую базу данных рисков, связанных с ИИ (AI Risk Repository). Они собрали более 700 рисков из различных категорий, поэтому для обсуждения классификации рисков возьмем именно эту работу.
Все данные находятся в открытом доступе, вы можете пройти по ссылке, которую я приложила выше, и исследовать этот масштабный труд самостоятельно. Еще по этому исследованию написана статья (пока опубликована в режиме пре-принта, то есть, она пока не отрецензирована на момент написания поста) «The AI Risk Repository: A Comprehensive Meta-Review, Database, and Taxonomy of Risks From Artificial Intelligence» («Каталог рисков, связанных с ИИ: всесторонний обзор, база данных и классификация рисков»). Я не буду ее здесь разбирать подробно, оставлю знакомство на ваше усмотрение.
Авторы исследования разработали две классификации: каузальную (Causal Taxonomy) и по областям возникновения (Domain Taxonomy). Каузальная классификация выделяет сущность, намерение и время.
Сущность – это то, что создает риск. Это может быть человек (который совершил действие, повлекшее за собой реализацию риска), ИИ (в процессе работы которого реализовался риск) или нечто другое (риск реализовался по каким-то внешним причинам или по причине, которую невозможно установить).
Намерение отражает, реализовался ли риск вследствие добросовестной ошибки или действия, совершенного с целью причинить вред.
Время – это момент возникновения риска: до ввода ИИ в использование или после.
Согласно проведенному авторами исследованию, большинство рисков возникает после ввода ИИ в использование (после внедрения) в силу ошибок ИИ или дурных намерений человека.

<i>(Таблица 4 из статьи «The AI Risk Repository: A Comprehensive Meta-Review, Database, and Taxonomy of Risks From Artificial Intelligence», переведена на русский язык мной с использованием чата <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fmistral.ai%2F&postId=1670398" rel="nofollow noreferrer noopener" target="_blank">Mistral</a>)</i>
(Таблица 4 из статьи «The AI Risk Repository: A Comprehensive Meta-Review, Database, and Taxonomy of Risks From Artificial Intelligence», переведена на русский язык мной с использованием чата Mistral)

По области возникновения выделили семь групп рисков:

  • риски, связанные с дискриминацией и созданием вредоносного контента;
  • риски, связанные с безопасностью и защитой данных;
  • риски, связанные с созданием ложной информации;
  • риски, связанные с недобросовестным использованием ИИ (в том числе кибератаки, мошенничество и др.);
  • риски, связанные со взаимодействием человека и компьютера (например, чрезмерное доверие к ИИ, опора на ИИ в критически важных вопросах, например, связанных с медициной);
  • социоэкономические риски и риски, связанные с окружающей средой (усиление неравенства за счет неравномерного доступа к новым технологиям, отсутствие или недостаточность механизмов правового регулирования; колоссальное потребление энергии в процессе обучения и использования ИИ);
  • риски, связанные с системными ограничениями самого ИИ (галлюцинации, недостаточная надежность результатов, непрозрачность и т.д.).
<i>(Таблица D из той же статьи, также переведена с использованием Mistral. Перевод местами кривоватый, но суть в целом сохранена. В силу размера разбиваю ее на три части, это часть 1)</i>
(Таблица D из той же статьи, также переведена с использованием Mistral. Перевод местами кривоватый, но суть в целом сохранена. В силу размера разбиваю ее на три части, это часть 1)
<i>(Та же таблица, часть 2)</i>
(Та же таблица, часть 2)
<i>(И часть 3)</i>
(И часть 3)

«Процент документов» – это доля публикаций (из тех, которые были проанализированы авторами), где тот или иной риск был описан.
Значительная часть рисков связана с техническими ограничениями ИИ, в том числе с недостаточной надежностью решений. Немалая доля приходится на неравномерное распределение технологий и преимуществ от этих технологий, неправомерное использование ИИ, в том числе для кибератак и мошенничества. Создание ложной информации и информации, которая поддерживает дискриминацию в обществе, тоже многократно было выявлено.

И что теперь с ними делать

Готовых инструментов в духе «делай А – получишь Б» пока нет, к сожалению. Но чтобы эти инструменты появились, нужно, по крайней мере, начать исследовать возникающие проблемы.
Этим занимаются сейчас разные организации. Их сложно назвать очень влиятельными или очень многочисленными, но тем не менее. На данном этапе развития технологии мы рады уже тому, что что-то потихоньку делается в нужном направлении.
Направление называется Responsible AI (ответственный подход к ИИ). Одна из крупных организаций, которая в этой сфере работает, называется Responsible AI Institute (RAII). Это некоммерческая организация, которая оказывает разного рода поддержку (главным образом информационную и консультационную) компаниям, которые разрабатывают продукты на основе ИИ и хотят делать эти продукты доступными и безопасными.

У них есть как корпоративное членство, которое предполагает регулярные взносы, так и бесплатное индивидуальное, с помощью которого можно получить доступ к их обучающим материалам и прочим публикациям. Я туда подписалась. Доступ у индивидуальных членов немного ограниченный, но можно следить за профессиональной дискуссией. Думаю воспользоваться возможностью и написать еще пару постов про риски, ограничения и ответственный подход к использованию ИИ (это уже планы на следующий год, так как план до конца текущего уже написан).
Помимо RAII есть и другие организации, конечно, например, AI Ethics Lab, которая занимается исследованиями и консультирует компании в области ответственного подхода к использованию ИИ. У них есть большая карта, на которой по каждой стране отмечены документы, выпускаемые правительствами, неправительственными организациями и коммерческими компаниями. Эти все документы можно там же прочитать. Речь идет о правовом регулировании ИИ, исследованиях рисков и руководствах для компаний, которые разрабатывают продукты на базе ИИ.
Крупные компании вроде Microsoft тоже публикуют собственные исследования, но я их здесь уже не буду приводить. Возможно, как-нибудь потом обсудим и сами эти работы, и то, как компании на самом деле следуют (или не следуют) декларируемым принципам.

Заключение

Интересно будет прочитать в комментариях, что вы думаете об ответственном подходе к ИИ в целом и своевременности этого разговора в русскоязычном пространстве, в частности. Мне кажется, что говорить о рисках, ограничениях и этике использования технологии никогда не слишком рано.
У себя в телеграме я про это дело пишу уже некоторое время как, поэтому вот вам еще подборка небольших постов в продолжение разговора:

33
1 комментарий

Мне вообще очень странно, что создатели не озаботились таким вопросом с самого начала. Видимо жажда наживы совсем затмила чувство самосохранения... Хотя помниться когда испытывали ЯО впервые, были некоторые расчеты что такой взрыв может запустить цепную реакцию в атмосфере, что впрочем не остановило экспериментаторов...

1
Ответить