Этика искусственного интеллекта: что это и зачем она нужна?

В 2023 году искусственный интеллект превратился из узкоспециального инструмента в технологию, доступную каждому. Простые люди начали создавать музыку, писать романы и генерировать картины с помощью нейросетей. Развитие и широкая доступность ИИ породили необходимость в этике — системе принципов, которые помогут создавать и развивать безопасный искусственный интеллект. Как регулировать нейросети и какие проблемы могут возникнуть, если мы не будем контролировать ИИ — в нашей статье.

Этика искусственного интеллекта: что это и зачем она нужна?

Зачем нужна этика искусственного интеллекта?

ИИ может как для улучшить, так и ухудшить нашу жизнь. Например, усилить социальную дискриминацию. Так, в 2018 году алгоритм рекрутинга, разработанный Amazon, предвзято относился к кандидатам-женщинам. А американская нейросеть для вынесения приговоров чаще обвиняла в преступлениях темнокожих людей.

Еще одна проблема, с которой мы можем столкнуться, если не будем контролировать развитие ИИ, — безработица и экономический спад. Роботы и нейросети уже справляются с некоторыми задачи лучше людей, а значит могут вытеснить сотрудников с рабочих мест.

Этика искусственного интеллект нужна для того, чтобы предотвратить эти проблемы, развивать технологии во благо человечества, а не во вред ему.

Этика искусственного интеллекта: что это и зачем она нужна?

Первые попытки регулирования в ИИ

В 2017 году в Калифорнии прошла конференция, посвященная безопасному применению ИИ. Результатом конференции стали Азиломарские принципы. Это свод правил, согласно которым компании, разрабатывающие ИИ, должны сотрудничать друг с другом и не пренебрегать стандартами безопасности. Азиломарские принципы подписали Илон Маск, Стивен Хокинг и другие эксперты в области IT.

Ключевые Азиломарские принципы:

  • Польза: ИИ-должен быть полезным для людей и окружающей среды;
  • Безопасность: использование технологий не должно причинять вред человечеству;
  • Прозрачность: действия и решения ИИ должны быть понятными, их можно проанализировать;
  • Конфиденциальность: алгоритмы не могут допустить утечку чувствительной информации;
  • Справедливость: в ИИ-разработках не должно быть дискриминации;
  • Человеческий контроль: люди должны иметь возможность контролировать ИИ;
  • Общая выгода: ИИ должен приносить пользу обществу, а не отдельным группам людей;
  • Ответственность: люди, разрабатывающие и разворачивающие ИИ-технологии, должны нести ответственность за их влияние на общество;
  • Отсутствие гонки ИИ-вооружений: технологию нельзя развивать ради военного превосходства одних государств над другими.

Азиломарские принципы — важный шаг к урегулированию ИИ, но, увы, у них есть недостатки. Так, они носят лишь рекомендательных характер и не предлагают конкретных мер для решения проблем.

Этика искусственного интеллекта: что это и зачем она нужна?

Регулирование ИИ в России

1 июля 2020 года в Москве ввели экспериментальный правовой режим, который продлится до 1 июля 2025 года. Цель режима — стимулировать внедрение и развитие ИИ, сформировать механизмы регулирования общественных отношений, возникающих при использовании ИИ-технологий. В эксперименте участвуют компании, занимающиеся разработкой и оборотом технологий искусственного интеллекта, а также товаров и услуг на его основе. Ожидаемый результат — создание правовой базы для регулирования ИИ.

В 2021 году в Москве прошел международный форум «Этика искусственного интеллекта: начало доверия». На мероприятии разработали российский Кодекс этики в сфере ИИ, который подписали более 100 отечественных компаний. В основе Кодекса — прозрачность, непричинение вреда, ответственность за действия ИИ и человекоориентированность. Как и Азиломарские принципы, документ носит рекомендательный характер.

Этика искусственного интеллекта: что это и зачем она нужна?

Практическое применение этических принципов

Этические принципы все еще не закреплены на законодательном уровне, но есть и хорошая новость — многие компании уже начали их применять. Сегодня существует 3 подхода, которые помогают предотвращать проблемы, связанные с развитием ИИ:

  • Ethics by design: суть заключается в том, что потенциальные угрозы можно предупредить еще на этапе создания ИИ-систем;
  • AI Localism: согласно этому подходу нужно собирать успешные примеры решения этических вопросов в отдельных странах, городах и компаниях;
  • Сбор обратной связи: нужно проводить опросы среди тех, кто пострадал от ИИ.
Начать дискуссию