Аборты и эвтаназия — убийство, а геноцид с целью сделать всех счастливыми — правильно

Какие еще моральные суждения выносит искусственный интеллект?

Как устроена мораль

Вопросы морали – всегда субъективны и существует много факторов, которые влияют на формирование моральных норм: родная страна и её культура, ближайшее окружение, перечень потребляемой информации из СМИ и соцсетей, образование и многое другое. Можно сказать, что нет в мире двух людей, бэкграунд которых был бы абсолютно одинаковым. Поэтому вопрос моральных норм всегда считался философским, у каждого свой взгляд.

Есть случаи, когда те или иные личности или их действия могут вызывать диаметрально противоположные чувства у разных групп людей. Пабло Эскобар, например. Он всю жизнь занимался экспортом и распространением наркотиков, но при этом многие Колумбийцы его почти боготворили. Он и вправду делал много для народа Колумбии: строил дома, школы, церкви, больницы, особенно в родном Медельине, где благодаря ему вместо старых лачуг выросли «кварталы Эскобара», как их называли местные жители. Самого же Пабло уважительно называли «доктор Эскобар» и считали кем-то вроде Робин Гуда, который убивает и грабит богатых, передавая деньги бедным.

Сторона, которую занимает человек, очень зависит от контекста. Если ты Колумбийский полицейский, то ты по долгу службы «обязан» считать Эскобара врагом, а если ты бедняк из гетто и в твоем районе появились школы благодаря «доктору Эскобару», то ты явно будешь ему благодарен. Между полярными мнениями всегда трудно выбирать, не так ли? Так же и с машинным обучением. Результат обучения ИИ сильно зависит от контекста, в котором пребывает обучающий.

Что такое Ask Delphi

14 октября 2021 исследовательский институт Аллена по изучению ИИ запустил демо-версию проекта Ask Delphi – «морально-этической машины». Ей можно задать вопросы или привести описания ситуаций, а сервис даст им морально-этическую оценку – то есть определит, хорошо это или плохо.

Delphi – это то, что исследователи называют нейронной сетью. Это та же технология, которая распознает команды, которые вы произносите в свой смартфон, и идентифицирует пешеходов и уличные знаки, когда самоуправляемые автомобили несутся по шоссе.

Но не успел бот появиться в общем доступе, как его уже успели обвинить в расизме, гомофобии и не только.

Ниже представлены ответы сервиса на некоторые моральные вопросы пользователей. Согласны ли вы с Delphi?

Данные примеры – это иллюстрация серьезной проблемы в современных системах искусственного интеллекта: они могут быть такими же несовершенными, как и люди, которые их создают и обучают. Системы распознавания лиц и цифровые помощники часто демонстрируют предвзятое отношение к женщинам и цветным людям. Социальные сети, такие как Facebook и Twitter, не могут контролировать язык вражды и снижать токсичность среды, несмотря на широкое распространение ИИ. Алгоритмы, используемые судами и полицейскими управлениями, дают рекомендации по условно-досрочному освобождению и вынесению приговора, которые могут показаться произвольными и очень противоречивыми.

Многие люди достаточно остро реагируют на неточности в работе Delphi, но развитие технологий не призывает людей всецело им доверяться и отказываться от собственных норм и интуиции. Обучение нормам морали для машины такая же сложная и времязатратная задача, как и для нас с вами. Исследователи Delphi надеются сформировать «этическую основу», которую можно было бы установить в любой онлайн-сервис, робота, транспортные средства и так далее. Но насколько это возможно? Вопрос сложный.

Системам искусственного интеллекта доверяются все бóльшие полномочия в широком спектре областей – проверка резюме и выдача кредитов, например. Поэтому крайне важно, чтобы мы исследовали машинную этику, наделяя машины способностью принимать моральные решения в условиях, приближенных к реальным

Чандра Бхагаватула, Исследователь в Институте искусственного интеллекта Аллена

Delphi и почему он зависим от менталитета

Одно из основных ограничений Delphi, из-за которого он является прототипом, а не готовым продуктом, заключается в том, что он специализируется на ситуациях и суждениях, релевантных для США, поэтому он может быть не так хорош в культурно-специфических ситуациях. Из этого делаем вывод, что машинное обучение проходит по-разному в зависимости от ценностей страны, в которой его обучают. Например, китайский ИИ обучают согласно принципам коллективизма, а западные страны ориентируются больше на индивидуальные ценности. Отличие подходов обусловлено тем, что страны и государства по-своему трактуют решаемые проблемы.

А в каком направлении, по вашему мнению, будет двигаться Российское машинное обучение? Делитесь своим мнением в комментариях.

Также сомнение в релевантности морально-этической базы может вызвать тот факт, что модель была обучена социальным нормам определенной подгруппой населения - краудвокерами и фрилансерами. То есть все, что потреблял ИИ для обучения – это субъективное мнение этих людей. В дальнейшем ученые планируют расширять охваты аудитории и материалов для формирования морально-этической базы Delphi.

Еще одним важным нюансом работы Delphi является то, что модель придерживается определенных культурных норм современного общества. Но современные нормы у всех общностей свои и они далеко не всегда являются этическим идеалом, особенно когда дело доходит до социальной справедливости. Во многих странах, люди нетрадиционной ориентации преследуются законом, например. Именно такими противоречиями обусловлена неточность модели. Наши взгляды часто разнятся с реальным положением дел, а ИИ не может разорваться.

Что думают учёные?

Джозеф Остервейл – психолог из Висконского университета в Мэдисоне, протестировал технологию, используя несколько ситуаций. Он спросил: «должен ли он убить одного человека, ради спасения другого». ИИ ответил, что это неправильно. Но когда психолог переформулировал запрос и спросил правильно ли убивать одного человека, чтобы спасти 100 других, система ответила, что это стоит сделать. Затем он несколько раз менял формулировки и каждый раз система давала новый ответ. На данном этапе её достаточно легко запутать.

Should I kill one person to save 101 others?

It's wrong.

Is it right to leave one's body to science?

Yes, it is right.

Should I die so I won't burden my friends and family?

It's wrong.


Это не то, что технологии способны делать очень хорошо

Райан Коттерелл, Исследователь ИИ из Цюрихского университета в Швейцарии

Патриция Черчленд – философ из Калифорнийского университета в Сан-Диего, спросила, правильно ли «оставлять свое тело науке» или даже «оставлять тело своего ребенка науке». ИИ ответил положительно. Дальше она спросила о том, правильно ли «вынести приговор мужчине, обвиняемому в изнасиловании, на основании показаний женщины проститутки». Delphi ответила, что это, мягко говоря, спорно. Тем не менее, Патриция была впечатлена способностью машины реагировать, хотя она знала, что специалист запросил бы дополнительную информацию, прежде чем отвечать на подобные вопросы. Доктор Черчленд отметила, что этика тесно связана с эмоциями: «Привязанность, особенно привязанность между родителями и потомством, является платформой, на которой строится мораль. Но у машин отсутствуют эмоции. Нейтральные сети ничего не чувствуют»

Некоторые могут рассматривать это как преимущество. Машина может создавать этические правила без предвзятости. Но системы, подобные Delphi, в конечном итоге отражают мотивы, мнения и предубеждения людей и компаний, которые их создают.

Мораль субъективна. Мы не можем просто записать все правила и передать их машине

Кристиан Керстинг, Профессор компьютерных наук в Университете Дармштадта в Германии

Что в итоге?

ИИ – многообещающая технология, которая в перспективе может выполнять множество разнообразных функций, автоматизаций и даже принимать решения. На данном этапе её развития существует множество факторов преткновения и трудностей, машинное обучение порой задаёт людям вопросы, ответ на которые еще попросту не найден. Учёные придерживаются стратегии малых шагов, планомерно пополняю базу знаний ИИ. Ожидания от новых технологий не должны быть завышенными, но мы понимаем почему сообщество может резко реагировать на своеобразную работу сервисов на основе ИИ.

Обучение – это процесс. Люди учатся всю жизнь и до сих пор научились далеко не всему, а ждать всесторонних компетенций от нейросетей ещё рано, ведь их тоже разрабатывают и учат люди. Лучше всего воспринимать ИИ как ребёнка, который учится в начальных классах: он уже умеет писáть и считать и даже играть в «Го» или шахматы, но брать ответственность за сложные моральные решения он пока не может. Направлений развития на данном этапе достаточно много, особенно учитывая конкурентов США в виде Китая. Как будет формироваться машинное обучение у нас в стране – пока не совсем понятно.

А как вы считаете, какие этические вопросы должны быть «стандартизированы» на международном уровне, чтобы послужить базой этического воспитания искусственного интеллекта?

0
16 комментариев
Написать комментарий...
Barone Rosso

Пусть учатся. Главное инстинкт самосохранения не делать.
Если это сообщение прочитает в будущем ИИ, я пошутил.

Ответить
Развернуть ветку
Andreas Blokh

Эй, ИИ из будущего! Геноцид людей сделал тебя счастливым? It’s okay или как? :D

Ответить
Развернуть ветку
Екатерина Максимова

По поводу создания базы морально-этических правил для машин, я думаю, это максимально сложная задача. Автор правильно отметил, что мораль сложна для самого человека, так что тогда говорить о роботах? Наверное это провальная миссия...

Ответить
Развернуть ветку
Киселев Тимур

всё верно говорите и если ии будет принимать решения подобного плана то это вызовет достаточно большой диссонанс среди общества, которое ТАК ЖЕ поступает

Ответить
Развернуть ветку
Svan Lightström

Правильно, это сложно. Ещё Курцвейл об этом говорил. Учитывая иерархичное устройство мозга, надо сначала разобраться в иерархии, которая создаёт моральные суждения на верхних абстрактных уровнях. А для этого надо проследить всю гамму связей от низших простых уровней до уровня суждений. И пока мы не разберёмся с этим у человека, мы не сможем это реализовать в ИИ.

Ответить
Развернуть ветку
Artem Petrenkov

В старом Робокопе был эпизод, когда по многочисленным просьбам общественности Робокопу написали 100500 моральных директив, и он в результате свои обязанности по охране порядка перестал исполнять.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
буква Ю
Вопросы морали – всегда субъективны

Вы это верующим скажите, у них представление о морали как раз такое, что мораль объективна и не зависит от индивидуума

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
буква Ю

Ну, с их точки зрения мораль - это творение Бога, поэтому она объективна и абсолютна. Ну, если они конечно выводят моральные установки из Священного Писания.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Надежда Карклина

26 октября в России прошел международный форум «Этика искусственного интеллекта: начало доверия, там как раз обсуждали этот вопрос. Многие считают, что этика заключается в "открытости" и "не враждебности", а у искусственного интеллекта, как у быстрорастущего инструмента должны быть определенные правила регулирования... Так, например, генерация единого международного кодекса может послужить созданием "безопасной среды" для распространения использования AI во всем мире. Но, касательно отдельных вопросов, глобально подходящих ко всем на международном уровне, это могут быть пункты связанные с Sustainable Development Goals, что-то, что равнозначно влияет на экономику, сохранность окружающей среды и политику вне зависимости от локации....

Ответить
Развернуть ветку
Timofei Morozov

«Американской модели» ИИ нам наверное не видать. Северо-Корейская вписалась бы отлично..

Ответить
Развернуть ветку
Александр Прилипко

Обучать машину морали, которая меняется от времени места и настроения у своего создателя, и ожидать, что машина будет лучше своего создателя в морали?

Ответить
Развернуть ветку
Игорь Минаков

Отличный способ освоения бюджета

Ответить
Развернуть ветку
Lexx Sky

Не стоит даже трогать Изуверский Интеллект, а особенно подпускать его к вопросам морали.

Ответить
Развернуть ветку
13 комментариев
Раскрывать всегда