OpenAI финансирует научные исследования для создания «морального искусственного интеллекта»

** Еще больше интересного в моем канале продуктовые штучки**

Расскажу, что это такое и главное — зачем.

В заявлении от OpenAI Inc. (некоммерческая организации OpenAI) сообщается, что компания выделила грант исследователям Университета Дьюка на проект под названием «Исследование морали ИИ». OpenAI пояснила, что это является частью крупного трехлетнего гранта в размере $1 млн для создание морального ИИ.

Зачем это?

Цель весьма благая: сделать так, чтобы ИИ принимал моральные решения.

Цель финансируемой OpenAI работы — обучить алгоритмы выносить моральные суждения в сценариях, включающих конфликты «среди морально значимых характеристик в медицине, праве и бизнесе».

Главный исследователь проекта Синнотт-Армстронг и соисследователь проекта Яна Борг провели несколько исследований — и написали книгу — о потенциале ИИ в качестве «морального GPS», помогающего людям принимать более обоснованные решения. В составе более крупной команды они создали «морально-согласованный» алгоритм, помогающий решать, кто получает почки для донорства, и выявили сценарии, в которых люди предпочли бы, чтобы ИИ принимал моральные решения.

Стоит рассчитывать на результат?

Далеко не очевидно, что столь тонкая материя как мораль под силу современным технологиям. По крайней мере, на данный момент

В 2021 году некоммерческий институт Аллена по искусственному интеллекту создал инструмент под названием Ask Delphi, который должен был давать этически обоснованные рекомендации. Он достаточно хорошо разбирался в основных моральных дилеммах: например, бот «знал», что списывать на экзамене неправильно.

Легкого перефразирования вопросов было достаточно, чтобы Delphi одобрил практически все, включая удушение младенцев.

Почему это сложно?

Причина кроется в принципе работы современных систем искусственного интеллекта. Модели машинного обучения — это статистические алгоритмы. На множестве примеров они изучают закономерности, чтобы делать прогнозы.

Сам по себе ИИ не «ценит» этические концепции и не понимает рассуждения и эмоции, которые играют роль в принятии моральных решений.

Сейчас ИИ склонен повторять ценности западных, образованных и индустриальных стран, и это просто означает, что и в данных обучения ИИ, преобладают статьи, поддерживающие эти точки зрения. ИИ усваивает любые предубеждения. Так, Delphi сказал, что быть натуралом «более морально» А многие ИИ чат-боты имеют ярко выраженную левую и либертарианскую позицию — все по той же причине обучаемости.

Пожалуйста, поддержите меня, поставьте лайк!

33
1 комментарий

Что касается создания морального искусственного интеллекта это несколько обнадеживает, особенно после упразднения целого отдела который у них занимался этикой.