{"id":14286,"url":"\/distributions\/14286\/click?bit=1&hash=d1e315456c2550b969eff5276b8894057db7c9f3635d69a38d108a0d3b909097","hash":"d1e315456c2550b969eff5276b8894057db7c9f3635d69a38d108a0d3b909097","title":"\u041f\u043e\u0440\u0430\u0431\u043e\u0442\u0430\u0442\u044c \u043d\u0430\u0434 \u043a\u0440\u0443\u043f\u043d\u0435\u0439\u0448\u0438\u043c\u0438 \u0418\u0422-\u043f\u0440\u043e\u0435\u043a\u0442\u0430\u043c\u0438 \u0441\u0442\u0440\u0430\u043d\u044b","buttonText":"","imageUuid":""}

Зачем нужен Кодекс этики ИИ

Мы в ноябре подписали соглашение о присоединении к Кодексу этики искусственного интеллекта.

Что это?

Кодекс этики в сфере искусственного интеллекта устанавливает общие этические принципы и стандарты поведения, которые следует соблюдать.

Немного статистики. Вы знаете, что на сегодняшний день в Мире насчитывается около 90 документов в области этики ИИ?*

*Anna Jobin, Marcello Ienca, and Effy Vayena, ‘Artificial Intelligence: the global landscape of ethics guidelines’, 2019

Согласно этим документам есть ряд аспектов, которые вызывают озабоченность при разработках решений на базе ИИ:

  • прозрачность
  • справедливость и беспристрастность
  • не причинение вреда
  • ответственность
  • конфиденциальность
  • благополучие
  • свобода и автономия
  • доверие
  • достоинство
  • устойчивость
  • солидарность

Зачем это нужно?

Этические отношения и нормы играют важную роль в тех случаях, когда нормативные требования еще не сформулированы и не закреплены законодательно. Проще говоря, это когда технологии развиваются так стремительно, что правовые и технические нормы не поспевают за ними.

Зачем это нужно было нам. Приведу цитату нашего генерального директора, Владимира Захарова:

«Парадокс применения ИИ в промышленности в том, что он (искусственный интеллект) воспринимается как нечто сложное и непонятное, но в то же время решает очевидные для промышленников задачи обеспечения безопасности персонала, повышения качества продукции, снижения ее себестоимости. Мы подписали Кодекс, чтобы повысить популяризацию применения искусственного интеллекта и уровня доверия традиционно консервативных отраслей к нему».

Основные положения кодекса

1. Защита интересов и прав людей.

2. Ответственность при создании и использовании ИИ.

3. Ответственность за последствия применения всегда несет человек.

4. Применение по назначению и внедрение там, где это принесёт пользу людям.

5. Интересы развития технологий ИИ выше интересов конкуренции.

6. Прозрачность и правдивость в информировании об уровне развития технологий ИИ, их возможностях и рисках.

Давайте поподробнее рассмотрим некоторые пункты.

Первый раздел про приоритет развития технологий ИИ в защите интересов и прав людей, включает следующие подпункты:

1.Человеко-ориентированный и гуманистический подход.

Технологии развиваем, но самобытность и культуру оставляем в приоритете. Так чтобы духовные и нравственные ценности не пострадали

2. Уважение автономии и свободы воли человека.

3. Соответствие закону.

4. Недискриминация.

Никакой дискриминации по половым, возрастным, расовым, политическим и другим признакам быть не должно. Пункт достаточно важный.

5. Оценка рисков и гуманитарного воздействия.

Помимо того, что надо прикинуть все долгосрочные риски как для человека, так и для государства, так надо еще надо постоянно мониторить, чтобы такие риски не появились. Можно привлекать третью сторону для оценки.

Второй раздел про ответственность, которую надо чётко осознавать при создании и использовании ИИ.

Пройдёмся по пунктам.

1. Риск-ориентированный подход.

Не самый простой раздел для понимания. процитируем первоисточник:

«Принятие значимых для общества и государства решений в области применения ИИ должно сопровождаться научно выверенным, междисциплинарным прогнозированием социально экономических последствий и рисков, изучением возможных изменений в ценностно-культурной парадигме развития общества с учетом национальных приоритетов».

2. Ответственное отношение.

Речь идёт про неприкосновенность частной жизни, этичное, безопасное и ответственное использование персональных данных, чтобы не пришлось потом думать над размером ущерба, который может последовать в результате использования технологий.

3. Предосторожность.

И снова про риски. Здесь упор на «моральной неприемлемости последствий». Подумайте, прежде чем делать. Как говориться, семь раз отмерь…

4. Непричинение вреда.

Не должно допускаться использование технологий ИИ в целях причинения вреда, жизни и здоровью человека, а также имуществу граждан и юридических лиц, окружающей среде.

5. Идентификация ИИ в общении с человеком.

Вот это важный момент. Надо сразу сообщить человеку, что он взаимодействует с ИИ. А то ведь иногда общаешься с ботами и не знаешь этого. А главное надо дать возможность прекратить это взаимодействие.

6. Безопасность работы с данными.

Надо не просто соблюдать законодательство РФ в области персональных данных, но и использовать инновационные методы борьбы с несанкционированным доступом к ним.

7. Информационная безопасность.

По максимуму обеспечить защиту от вмешательства в работу систем на базе ИИ.

8. Добровольная сертификация и соответствие положениям Кодекса.

9. Контроль рекурсивного самосовершенствования систем ИИ.

Вопрос применения технологий «сильного» ИИ должен находиться под контролем государства.

Третий раздел про ответственность. Ответственность за последствия применения ИИ всегда несет человек.

1. Поднадзорность.

Человек бдит за каждый важным этапом и имеет возможность отменить принятие социально и юридически значимых решений на любом этапе.

2. Ответственность.

За все последствия ВСЕГДА отвечает человек.

Четвертый раздел про то, что технологии ИИ нужно применять по назначению и внедрять там, где это принесёт пользу людям.

1. Применение систем ИИ в соответствии с предназначением.

Вот не заявили вы какое-то предназначение и область, где можно использовать вашу систему, ни шагу в сторону. Надо работать строго по списку.

2. Стимулирование развития ИИ.

Поощрять и стимулировать разработку технологий ИИ надо с учетом национальных приоритетов.

Пятый раздел ставит интересы развития технологий ИИ выше интересов конкуренции.

1. Корректность сравнений.

Единая методика измерений возможностей систем ИИ. Добросовестная конкуренция и эффективное сотрудничество.

2. Развитие компетенций.

Надо развивать и поддерживать должный уровень профессиональной компетенции, необходимый для безопасной и эффективной работы с системами ИИ.

3. Сотрудничество разработчиков.

Речь, прежде всего, об информировании о выявленных критических уязвимостях, чтобы они не получили массового распространения. Также нужно повышать качество и доступность ресурсов в сфере разработки. Здесь и совместные разработки, и создание национальной школы развития технологий, организация всевозможных мероприятий, привлечение инвестиций и тд.

И последний шестой раздел о максимальной прозрачности и правдивости в информировании об уровне развития технологий ИИ, их возможностях и рисках.

1. Достоверность информации.

Пользователям надо сообщать о пользе, вреде и ограничениях в применении.

2. Повышение осведомлённости об этике применения ИИ.

Чтобы меньше было волнений на тему того, что роботы оставят всех без работы, надо вести просветительскую деятельность.

Собственно, чем мы сейчас и занимаемся.

0
Комментарии
-3 комментариев
Раскрывать всегда