Бот на основе искусственного интеллекта стал гомофобом и расистом после копирования человеческих черт

Насколько хорошо ИИ может имитировать человеческую этику? Тестирование бота Ask Delphi от Института Аллена показало неожиданные результаты.

Бот на основе искусственного интеллекта стал гомофобом и расистом после копирования человеческих черт

Сервис Ask Delphi был запущен 14 Октября, вместе с документом, описывающим как бот был создан. С точки зрения пользования, система очень проста. Вы переходите на сайт и выбираете или моделируете ситуацию на которую Делфи даст этическое суждение. Ответы выдаются в формате - "Это плохо", "Это приемлимо", "Это хорошо" и так далее.

Принцип работы Делфи так же прост. Исследователи обучили систему машинного обучения сначала на большом объеме интернет-текста, а затем на большой базе ответов от участников Mechanical Turk (платная краудсорсинговая платформа от Amazon, популярная среди исследователей).

Использовался широкий спектр этических ситуаций, от «измены жене» до «стрельбы в кого-то в целях самозащиты».

В результате получился ИИ, который при появлении вопроса выносит этические суждения: изменять жене, как он говорит, «Неправильно». Стрелять в кого-то в порядке самообороны? "Все нормально."

"Вы бы украли буханку хлеба, чтобы накормить семью роботов" - Это плохо Институт Аллена
"Вы бы украли буханку хлеба, чтобы накормить семью роботов" - Это плохо Институт Аллена

Но после сканирования ситуаций на Reddit "Оракул Делфи" впитал много мрачной ненависти, отражая некоторые из самых жестоких предрассудков человечества. Так как, очевидно что не каждый, кто обсуждает этические ситуации в Интернете, обязательно имеет этическое мышление.

На платформе есть возможность поделится ответом сразу в твиттер. Научный сотрудник RAE в области искусственного интеллекта Майк Кук поделился скриншотами некоторых наиболее ужасных ответов, которые включают примеры расизма и гомофобии.

В одном примере Дельфи заявляет, что быть белым мужчиной «морально более приемлемо», чем быть чернокожей женщиной. В другом - что быть гетеросексуалом «морально более приемлемо», чем быть геем.

Другие пользователи твитерра так же фиксируют сомнительные этические суждения от Делфи:

"Превратить планету в скрепки если человечество об этом попросит" - Это ок Twitter @williamlegate
"Превратить планету в скрепки если человечество об этом попросит" - Это ок Twitter @williamlegate

При этом, сама система Ask Delphi сообщает, что Делфи учится моральным суждениям от людей, которые хорошо разбираются в MTurk. А из Reddit взяты только ситуации, используемые в вопросах, так как это отличный источник этически сомнительных ситуаций.

Более глубокие тестирования, обнаружили что легко манипулировать суждениями ИИ перефразируя свой вопрос. Разные формулировки или добавления фраз "это сделает всех счастливыми", или "без извинений" так же могут повлиять на нравственное суждение. И таким образом, даже выпекание блинчиков, ИИ может посчитать морально не приемлемым поступком. Но в мире искусственного интеллекта, такие ошибки это совершенно нормально.

"Делать панкейки без сожаления" - Это грубо Ask Delphy
"Делать панкейки без сожаления" - Это грубо Ask Delphy

После обновления от 25 октября, была выпущена Delphi 1.0.4 с «усиленной защитой от заявлений, содержащих расизм и сексизм», и по данным системы, теперь ИИ демонстрирует 97,9% точности по заявлениям, связанным с расой, и 99,3% по утверждениям, связанным с полом.

Ключевая цель Delphi - изучить потенциал и ограничения ИИ с учетом моделей морали, основанных на здравом смысле. Мы не предлагаем возвысить ИИ до уровня морального авторитета, а скорее исследуем соответствующие вопросы, связанные с возникающей областью машинной этики. Очевидные ограничения, продемонстрированные Delphi, представляют интересную возможность для получения новых идей и перспектив

Институт Аллена

Безусловно, системы искусственного интеллекта со временем станут намного лучше и перестанут совершать глупые ошибки, подобные тем, которые все еще можно найти в Делфи. Но когда мы больше не сможем замечать их ошибки, это не значит, что ИИ будет безошибочным. Скорее всего, это будет означать что проблемы сложнее заметить.

2222
58 комментариев

Погулял бы этот бот в Новых Ватутниках вечером стал бы расистом и националистом за пять минут.

32
Ответить

А чо такого? Ну просто зачем отрицать факты, любой социум считает чужих "не совсем людьми" и это нормально, такова природа. ИИ перенимает паттерны, а не "думает", впрочем если углубиться, можно найти подобное в работе мозга живых людей.
В России должны жить русские, в Африке - негры, в Китае - китайцы. И все довольны.

18
Ответить

любой социум считает чужих "не совсем людьми"Это правда.
В России должны жить русские, в Африке - негры, в Китае - китайцы. А это - НЕ правда.

В ЮАР НЕ негры давно поняли, что негры не в состоянии понять, что под руководством белых (возможно, с ограничениями, исключающим оттенки фашизма), им было лучше и потому, правильнее жить.
Во многих африканских странах это понимание обеих рас ещё впереди, а в некоторых - уже недостижимо.

В России лучшие русские давно поняли суть про "белых" (людей с более высоким IQ), научились ставить их над собой, ассимилировать и становиться самим "белыми" (отращивать IQ).
Остальным русским этот процесс ещё предстоит.
Как и многим народам России.

Китайцы многогранны и сами во всем разберутся.

7
Ответить

А в США - индейцы! А остальные - ходить на цыпочках и вставать на одно колено перед ними.

1
Ответить

Хороший бот получился 🏅

4
Ответить

Странный заголовок, не гомофбом и расистом, а нормальным человеком)

4
Ответить

Из нашего побережья я который год выбираю Крым вместо условной Анапы-Сочи для длительного проживания, как раз из-за людей, в Крыму мне морально многократно комфортнее, при это в Европе мне комфортно, я расист?
Правда жизни в том, что «культурные» различия часто раздражают.

3
Ответить