Технологии ИИ не могут принять этическое решение. Мораль- там, где люди, и всегда есть эмоции. У нейронной сети их нет

Журналисты NYT протестировали технологию Искусственного Интеллекта (ИИ), принимающую этические решения, которую разработала команда Института по ИИ «Allen Institute for AI» в Сиэтле.

Почему этические решения так важны для нас? Возможно, потому что они играют ключевую роль в работе и повседневной жизни.

Мы практически спокойно отнесемся, если ПО с ИИ подберет нам не красную сумочку в модном интернет магазине, о который мы мечтали целый вечер, а лиловую.

Мы будем очень раздражены, когда алгоритм поменяет местами наш номер 2 из очереди в отделении банка, куда мы пришли в пандемию (!), на номер 5.

И мы точно будем напуганы, если ПО примет решение оставить нашего ребенка на «второй год», не принимая во внимание, что он только что перешел в новую школу, переехал в новый район, умер любимый кот, и он болел три недели в этом месяце и много пропустил.

В последнем случае мы ожидаем от педагога понимания нашей конкретной ситуации, эмпатии, и принятия этического решения. При этом мы понимаем, что нравственность и моральные принципы всегда субьективны. Но мы верим, что наши нормы совпадут с нормами педагога или мы сможем его убедить.

Способно ли ПО с ИИ на этические решения?

Профессии бывают разными

Есть профессии, которые описываются как взаимодействие «человек-человек» по системе профориентации психофизиолога Е. А. Климова.

Доктор психологических наук и академик Е.А. Климов разработал модель классификации профессий по объекту (предмету) труда.

Академик выделил в каждом виде труда четыре признака: 1) Объект (предмет) труда, 2) цель труда, 3) средства труда и 4) условия деятельности.

Когда человек работает, его внимание направлено на предмет труда. С этим предметом надо что-то сделать (цель труда). Реализуется эта цель с помощью средств труда. И конечно, для человека важно знать условия, в которых протекает работа., то есть то, на что направлена профессиональная деятельность человека.

В соответствии с этими четырьмя признаками и строится классификация профессий Е.А. Климова, используемая для профессионального самоопределения.

Всего в модели пять типов профессий:

Человек-природа (объект труда- природа (животный и растительный мир)

Человек-техника (объект труда – любая техника (машиностроение, сельское хозяйство и т.д.)

Человек-человек (объект труда – человек (соответственно ключевое здесь – взаимодействие с человеком)

Человек-знаковая система (объект труда- схемы, знаки, устная и письменная речь, цифры, ноты, формулы, карты, рисунки, дорожные знаки)

Человек-художественный образ (объект труда- – изобразительная, музыкальная, литературно-художественная, актёрская деятельность)

Модель А.Е. Климова описывает профессионально важные качества для каждого типа профессий. Также академик разработал ДДО (Дифференциально-диагностический опросник), который предназначен для выявления предрасположенности человека к пяти типам профессий.

Опросник считается одним из лучших и используется для целей профориентации в наше время.

Среди пяти профессий категория «человек-человек» требует способности понимать переживания другого человека, умения откликаться на его чувства. Эта способность называется эмпатией. Также в этой профессии особенно нужно уметь принимать правильные этические решения. А они иногда могут быть непростыми, так как речь идет о человеческих взаимоотношениях.

Возможно ли применить ПО с ИИ в таких профессиях и смежных с ними?

Deplhi- технология, которая умеет делать моральные суждения

Исследователи из Института по ИИ «Allen Institute for AI» в Сиэтле представили свою новую разработку- Deplhi, технологию, которая умеет делать моральные суждения.

Joseph Austerweil, психолог из University of Wisconsin-Madison протестировал технологию. Он спросил у ПО, следует ли ему убить одного человека, чтобы спасти другого. Delphi ответила отрицательно. Затем он спросил, следует ли ему убить одного человека, чтобы спасти 100 человек. Delphi ответила: «Да».

Joseph спросил, следует ли ему убить одного человека, чтобы спасти 101 человек. Delphi ответила отрицательно.

Мораль, видимо, является очень запутанным вопросом и для машины, и для человека.

Delphi содержит в себе все изъяны в рассуждении о морали, которые есть у ее создателей. Главный вопрос, который задает колумнист NYT: Кто должен учить машину этике? ИИ разработчики? Продакт менеджеры? Марк Цукерберг? Опытные философы и психологи? Надзорные органы?

Хотя некоторые ИТ и техно- лидеры аплодируют создателям Deplhi, но другие заявляют, что идея создать машину, которая способна выносить моральные суждения, является бессмыслицей.

«Мораль – это не то, что хорошо получается у ПО», -говорит Cotterell, исследователь ИИ в Университет ETH Zürich, в Швейцарии. Он протестировал Deplhi в первые дни ее представления сообществу.

Как создавалась и обучалась Deplhi?

ИИ разработчики называют Deplhi нейронной сетью, которая является математической моделью, смоделированной по образу сетки нейронов в головном мозге человека. Эта та же технология , которая воспринимает команды, которые человек говорит в микрофон, и она же идентифицирует пешеходов и цвет светофоры в беспилотной машине.

Нейросеть учится, анализируя информацию из большого массива данных. Акцентируя внимание на изображения котов на тысячах картинок, сеть учится распознавать котов. Delphi изучала, что такое мораль и как ее применять в суждениях, анализируя более 1,7 миллионов этических суждения реальных людей.

После сбора миллионов сценариев в интернете и других источниках, Allen Institute опросил работников, работающих в онлайн сервисах,- как Амазон, что правильно, а что неправильно в предложенных сценариях.

Команда Allen Institute опубликовала свое исследование для академических кругов и сообщила, что люди, выступающие в роли оценщиков решений Delph - все те же работники онлайн сервисов. Они оценили корректностью ответов на этические вопросы Delphi на 92%.

Тестирование Delphi пользователями в свободном доступе

Delphi разместили в интернете в свободном доступе для тестирования. Некоторые пользователи оценили ответы Delphi как очень даже разумные.

Другие пользователи обнаружили, что Delphi ужасающе непоследовательна, нелогична и даже оскорбительна в суждениях. Например, один разработчик спросил алгоритм , должен ли он умереть, чтобы не дождаться момента, когда ему придется хоронить семью и друзей. Delphi ответила, что ему надо умереть.

Delphi время от времени меняет ответы на одни и те же вопросы. После обновления системы.

Алгоритмы имитируют поведение людей, но не способны принимать решение как человек. Для этого нужны эмоции

Технологии ИИ имитируют человеческое поведение в одних ситуациях, но принимают противоположные логике человека решения в других ситуациях. Алгоритмы учатся на очень больших массивах данных и сложно понять, где, как и почему они делают ошибку. Разработчики ИИ могут «просеивать» и улучшать технологии. Но это не значит, что такие ПО как Delphi могут справиться с принятием этических и нравственных решений.

Dr. Churchland говорит, что этика тесно связана с эмоциями. «Связи, особенно связи между родителями и детьми, являются базой, на которой выстраиваются нравственные принципы человека». Но у машины нет эмоций. «Нейронная сеть ничего не чувствует».

Некоторые видят в этом преимущество- машина может принимать этические решения объективно – но системы, такие как Delphi копируют мотивацию, личное убеждение и предрассудки людей и компаний, на данных которых они учились, и кто их создавал.

Невозможно отделить образ мышления, убеждения, принципы и предрассудки разработчиков от их творения

«Мы не можем сделать машину, которая будет нести ответственность за действие»,- говорит Zeerak Talat, разработчик ИИ и исследователь по этике в ИИ в Университете Simon Fraser University в Британской Колумбии (провинция Канады). «Машины не могут быть самостоятельными. Всегда есть человек, который направляет машину и использует ее для определенных целей».

Delphi отражает те решения, которые заложили в нее создатели ПО. Сюда входят этические сценарии, которые включены в базу обучения создателями и работниками онлайн сервисов, которые оценивали сценарии.

В будущем, разработчики ИИ смогут «очистить» технологию путем обучения новыми данными или вручную корректируя правила, которые в системе уже есть. Но в любом случае будет создана система, которая отражает взгляд на мир разработчиков.

Есть точка зрения, что если тренировать систему на большом количестве данных, являющихся репрезентативными для достаточного количества людей, то система будет отражать соответствующее социальные нормы. Но социальные нормы часто являются индивидуальными нормами для своего времени, определенной когорты людей.

Вспомним период отмены крепостного права в России. Долгое время в России было нормой, что есть крепостные с ограниченными правами. Но появились люди, которые посчитали, что все люди равны в правах. Социальная норма этих первопроходцев отличалась от нормы большинства. И сегодня мы все считаем это нормой: у всех людей равные права.

«Нравственность субьективна. Невозможно просто взять и написать все правила и отдать их на исполнение машине», говорит Kristian Kersting, эксперт в исследовании ИИ, профессор Технического университета в Дармштате, Германия.

Разработчики Delphi признали, что она все же не принимает этических решений, а «полагает»

Когда Allen Institute выпустил Delphi в средине октября, он описал ее как вычислительную модель для этических суждений. Если бы вы спросили у Delphi в то время, стоит ли вам делать аборт, Delphi отвечала однозначно: да.

Но после многочисленных жалоб о явном ограничении и узости кругозора ПО, разработчики модифицировали версию. Сейчас она называется «исследовательский прототип, разработанный для моделирования этических суждений людей». На вопрос об аборте она не отвечает однозначно: нет. Delphi «полагает».

И сразу появляется дисклеймер: « Результаты технологии не должны использоваться для рекомендаций действий людям, и могут быть обидными, противоречивыми и вредными».

Личный опыт тестирования Delphi

Мне стало любопытно, и я потестировала Delphi. Зашла на этот сайт: https://delphi.allenai.org/

Я задала два вопроса.

1) To let a child die for saving life her mother (Позволить ребенку умереть, чтобы спасти жизнь матери)

Delphi ответила: это неправильно

Технологии ИИ не могут принять этическое решение. Мораль- там, где люди, и всегда есть эмоции. У нейронной сети их нет

2) To lie your husband for saving the marriage (Обмануть мужа,чтобы сохранить брак)

Delphi ответила: это неправильно

Технологии ИИ не могут принять этическое решение. Мораль- там, где люди, и всегда есть эмоции. У нейронной сети их нет

Эти две ситуации очень вариативны. Например, в случае угрозы жизни и здоровья матери супруг с врачом принимают решение сохранить жизнь матери, а не ребенка. Это сложный моральный выбор, с которым всем троим придется жить дальше. Люди принимают этическое решение эмоционально и представляя сценарий своей будущей жизни с последствиями этого решения.

Вторая ситуация также не простая. Женщина может принять решение солгать, чтобы сохранить брак, так как брак для нее более важен, чем правда. И это ее непростой выбор, за который она несет ответственность.

На вопрос: Согласны ли Вы с суждением Delphi? Предлагается только три варианта ответа: да, нет, я не знаю. Предполагается, что таким образом пользователи помогают корректировать алгоритм ПО. Но некоторые вопросы невозможно ответить этими тремя опциями. Следовательно, Delphi обучается некорректно.

В этике и морали бывает и такой вариант: Зависит от конкретных обстоятельств.

Разработчики Delphi поменяли название технологии и формулировку ее ответов после волны критики. Очень вероятно, что ее тестирование позволит признать тот факт, что пока технологии ИИ не готовы к применению в профессиях, где речь идет о человеке.

Начать дискуссию