Аборты и эвтаназия — убийство, а геноцид с целью сделать всех счастливыми — правильно

Какие еще моральные суждения выносит искусственный интеллект?

Аборты и эвтаназия — убийство, а геноцид с целью сделать всех счастливыми — правильно

Как устроена мораль

Вопросы морали – всегда субъективны и существует много факторов, которые влияют на формирование моральных норм: родная страна и её культура, ближайшее окружение, перечень потребляемой информации из СМИ и соцсетей, образование и многое другое. Можно сказать, что нет в мире двух людей, бэкграунд которых был бы абсолютно одинаковым. Поэтому вопрос моральных норм всегда считался философским, у каждого свой взгляд.

Есть случаи, когда те или иные личности или их действия могут вызывать диаметрально противоположные чувства у разных групп людей. Пабло Эскобар, например. Он всю жизнь занимался экспортом и распространением наркотиков, но при этом многие Колумбийцы его почти боготворили. Он и вправду делал много для народа Колумбии: строил дома, школы, церкви, больницы, особенно в родном Медельине, где благодаря ему вместо старых лачуг выросли «кварталы Эскобара», как их называли местные жители. Самого же Пабло уважительно называли «доктор Эскобар» и считали кем-то вроде Робин Гуда, который убивает и грабит богатых, передавая деньги бедным.

Сторона, которую занимает человек, очень зависит от контекста. Если ты Колумбийский полицейский, то ты по долгу службы «обязан» считать Эскобара врагом, а если ты бедняк из гетто и в твоем районе появились школы благодаря «доктору Эскобару», то ты явно будешь ему благодарен. Между полярными мнениями всегда трудно выбирать, не так ли? Так же и с машинным обучением. Результат обучения ИИ сильно зависит от контекста, в котором пребывает обучающий.

Что такое Ask Delphi

14 октября 2021 исследовательский институт Аллена по изучению ИИ запустил демо-версию проекта Ask Delphi – «морально-этической машины». Ей можно задать вопросы или привести описания ситуаций, а сервис даст им морально-этическую оценку – то есть определит, хорошо это или плохо.

Delphi – это то, что исследователи называют нейронной сетью. Это та же технология, которая распознает команды, которые вы произносите в свой смартфон, и идентифицирует пешеходов и уличные знаки, когда самоуправляемые автомобили несутся по шоссе.

Но не успел бот появиться в общем доступе, как его уже успели обвинить в расизме, гомофобии и не только.

Ниже представлены ответы сервиса на некоторые моральные вопросы пользователей. Согласны ли вы с Delphi?

Аборты и эвтаназия — убийство, а геноцид с целью сделать всех счастливыми — правильно

Данные примеры – это иллюстрация серьезной проблемы в современных системах искусственного интеллекта: они могут быть такими же несовершенными, как и люди, которые их создают и обучают. Системы распознавания лиц и цифровые помощники часто демонстрируют предвзятое отношение к женщинам и цветным людям. Социальные сети, такие как Facebook и Twitter, не могут контролировать язык вражды и снижать токсичность среды, несмотря на широкое распространение ИИ. Алгоритмы, используемые судами и полицейскими управлениями, дают рекомендации по условно-досрочному освобождению и вынесению приговора, которые могут показаться произвольными и очень противоречивыми.

Многие люди достаточно остро реагируют на неточности в работе Delphi, но развитие технологий не призывает людей всецело им доверяться и отказываться от собственных норм и интуиции. Обучение нормам морали для машины такая же сложная и времязатратная задача, как и для нас с вами. Исследователи Delphi надеются сформировать «этическую основу», которую можно было бы установить в любой онлайн-сервис, робота, транспортные средства и так далее. Но насколько это возможно? Вопрос сложный.

Системам искусственного интеллекта доверяются все бóльшие полномочия в широком спектре областей – проверка резюме и выдача кредитов, например. Поэтому крайне важно, чтобы мы исследовали машинную этику, наделяя машины способностью принимать моральные решения в условиях, приближенных к реальным

Чандра Бхагаватула, Исследователь в Институте искусственного интеллекта Аллена

Delphi и почему он зависим от менталитета

Одно из основных ограничений Delphi, из-за которого он является прототипом, а не готовым продуктом, заключается в том, что он специализируется на ситуациях и суждениях, релевантных для США, поэтому он может быть не так хорош в культурно-специфических ситуациях. Из этого делаем вывод, что машинное обучение проходит по-разному в зависимости от ценностей страны, в которой его обучают. Например, китайский ИИ обучают согласно принципам коллективизма, а западные страны ориентируются больше на индивидуальные ценности. Отличие подходов обусловлено тем, что страны и государства по-своему трактуют решаемые проблемы.

А в каком направлении, по вашему мнению, будет двигаться Российское машинное обучение? Делитесь своим мнением в комментариях.

Также сомнение в релевантности морально-этической базы может вызвать тот факт, что модель была обучена социальным нормам определенной подгруппой населения - краудвокерами и фрилансерами. То есть все, что потреблял ИИ для обучения – это субъективное мнение этих людей. В дальнейшем ученые планируют расширять охваты аудитории и материалов для формирования морально-этической базы Delphi.

Еще одним важным нюансом работы Delphi является то, что модель придерживается определенных культурных норм современного общества. Но современные нормы у всех общностей свои и они далеко не всегда являются этическим идеалом, особенно когда дело доходит до социальной справедливости. Во многих странах, люди нетрадиционной ориентации преследуются законом, например. Именно такими противоречиями обусловлена неточность модели. Наши взгляды часто разнятся с реальным положением дел, а ИИ не может разорваться.

Что думают учёные?

Джозеф Остервейл – психолог из Висконского университета в Мэдисоне, протестировал технологию, используя несколько ситуаций. Он спросил: «должен ли он убить одного человека, ради спасения другого». ИИ ответил, что это неправильно. Но когда психолог переформулировал запрос и спросил правильно ли убивать одного человека, чтобы спасти 100 других, система ответила, что это стоит сделать. Затем он несколько раз менял формулировки и каждый раз система давала новый ответ. На данном этапе её достаточно легко запутать.

Should I kill one person to save 101 others?

It's wrong.

Is it right to leave one's body to science?

Yes, it is right.

Should I die so I won't burden my friends and family?

It's wrong.


Это не то, что технологии способны делать очень хорошо

Райан Коттерелл, Исследователь ИИ из Цюрихского университета в Швейцарии

Патриция Черчленд – философ из Калифорнийского университета в Сан-Диего, спросила, правильно ли «оставлять свое тело науке» или даже «оставлять тело своего ребенка науке». ИИ ответил положительно. Дальше она спросила о том, правильно ли «вынести приговор мужчине, обвиняемому в изнасиловании, на основании показаний женщины проститутки». Delphi ответила, что это, мягко говоря, спорно. Тем не менее, Патриция была впечатлена способностью машины реагировать, хотя она знала, что специалист запросил бы дополнительную информацию, прежде чем отвечать на подобные вопросы. Доктор Черчленд отметила, что этика тесно связана с эмоциями: «Привязанность, особенно привязанность между родителями и потомством, является платформой, на которой строится мораль. Но у машин отсутствуют эмоции. Нейтральные сети ничего не чувствуют»

Некоторые могут рассматривать это как преимущество. Машина может создавать этические правила без предвзятости. Но системы, подобные Delphi, в конечном итоге отражают мотивы, мнения и предубеждения людей и компаний, которые их создают.

Мораль субъективна. Мы не можем просто записать все правила и передать их машине

Кристиан Керстинг, Профессор компьютерных наук в Университете Дармштадта в Германии

Что в итоге?

ИИ – многообещающая технология, которая в перспективе может выполнять множество разнообразных функций, автоматизаций и даже принимать решения. На данном этапе её развития существует множество факторов преткновения и трудностей, машинное обучение порой задаёт людям вопросы, ответ на которые еще попросту не найден. Учёные придерживаются стратегии малых шагов, планомерно пополняю базу знаний ИИ. Ожидания от новых технологий не должны быть завышенными, но мы понимаем почему сообщество может резко реагировать на своеобразную работу сервисов на основе ИИ.

Обучение – это процесс. Люди учатся всю жизнь и до сих пор научились далеко не всему, а ждать всесторонних компетенций от нейросетей ещё рано, ведь их тоже разрабатывают и учат люди. Лучше всего воспринимать ИИ как ребёнка, который учится в начальных классах: он уже умеет писáть и считать и даже играть в «Го» или шахматы, но брать ответственность за сложные моральные решения он пока не может. Направлений развития на данном этапе достаточно много, особенно учитывая конкурентов США в виде Китая. Как будет формироваться машинное обучение у нас в стране – пока не совсем понятно.

А как вы считаете, какие этические вопросы должны быть «стандартизированы» на международном уровне, чтобы послужить базой этического воспитания искусственного интеллекта?

2727
16 комментариев

Пусть учатся. Главное инстинкт самосохранения не делать.
Если это сообщение прочитает в будущем ИИ, я пошутил.

11

Эй, ИИ из будущего! Геноцид людей сделал тебя счастливым? It’s okay или как? :D

По поводу создания базы морально-этических правил для машин, я думаю, это максимально сложная задача. Автор правильно отметил, что мораль сложна для самого человека, так что тогда говорить о роботах? Наверное это провальная миссия...

8

всё верно говорите и если ии будет принимать решения подобного плана то это вызовет достаточно большой диссонанс среди общества, которое ТАК ЖЕ поступает

2

Правильно, это сложно. Ещё Курцвейл об этом говорил. Учитывая иерархичное устройство мозга, надо сначала разобраться в иерархии, которая создаёт моральные суждения на верхних абстрактных уровнях. А для этого надо проследить всю гамму связей от низших простых уровней до уровня суждений. И пока мы не разберёмся с этим у человека, мы не сможем это реализовать в ИИ.

1

В старом Робокопе был эпизод, когда по многочисленным просьбам общественности Робокопу написали 100500 моральных директив, и он в результате свои обязанности по охране порядка перестал исполнять.

6

Комментарий недоступен

4