6 основных элементов ответственной модели ИИ
В процессе развития возможностей использования ИИ в бизнесе и управлении, возникает все больше новых этических и моральных вопросов связанных с этим. И это - вполне нормальный процесс. Разработка новых технологий без учета этики, морали и ценностей была бы, в лучшем случае, неразумным решением, а в худшем - катастрофой.
Многие годы «этический ИИ» использовался, как обобщающее выражения для стандартов и практик, которые организации должны внедрять в свои программы по науке о данных.
Этика пытается дать ответ на извечный вопрос «что такое хорошо и что такое плохо?». Прилагательное «этический» означает «рассматриваемый с точки зрения добра и зла». Мораль - это общие социальные или культурные убеждения, которые диктуют, что правильно или неправильно для определенных лиц или групп. Необязательно быть моральным, чтобы быть этичным, и наоборот, хотя эти два термина часто используются как синонимы.
Что такое ответственный ИИ?
Ответственный ИИ состоит из автономных процессов и систем, которые проектируют, разрабатывают и управляют когнитивными методами соблюдая стандарты и протоколы этики, эффективности и надежности. Ответственный ИИ не может быть дополнением или обманом. Он должен быть встроен в каждый аспект разработки и ИИ, в том числе в ваши стандарты для:
• Данных
• Алгоритмов
• Технологий
• Взаимодействия человека с компьютером
Говорить миру о своих ценностях легко, но гораздо труднее действовать в соответствии с ежедневной операционной дисциплиной, которая необходима для воплощения этих ценностей. В основе ответственной структуры искусственного интеллекта лежат большие идеи, что этическое и моральное, а также повседневные решения, например, способы обработки данных и разработка алгоритмов.
Шесть ключевых элементов ответственного ИИ
В рамках ответственного ИИ, он должен включать в себя такие аспекты:
- Подотчетность: алгоритмы, атрибуты и корреляции открыты для проверки.
- Объективность: внутренние и внешние проверки обеспечивают справедливое применение для всех участников.
- Устойчивость: контролируемые протоколы обучения с участием людей дают надежные результаты.
- Прозрачность: пользователи имеют открытый доступ до информации о данных и решениях.
- Безопасность: ИИ защищен от потенциальных рисков (включая киберриски), которые могут причинить материальный и цифровой вред.
- Управляемость: политика организации четко определяет, кто отвечает за данные, результаты и решения.
В конечном итоге вы можете оптимизировать возможности каждого аспекта в соответствии с вашими потребностями и ресурсами. Например, ваша прозрачность сейчас может быть только 15%, но после года усердных усилий она может подняться до 45%.
Вывод:
Ответственный ИИ - это шаг вперед, который поможет уравновесить риски, завоевать доверие и преодолеть предвзятость, используя неограниченный потенциал технологии. ИИ будущего, как люди, так и системы, должны иметь сильные характеристики объективности, устойчивости, прозрачности, безопасности и управления.