Патриция Черчленд – философ из Калифорнийского университета в Сан-Диего, спросила, правильно ли «оставлять свое тело науке» или даже «оставлять тело своего ребенка науке». ИИ ответил положительно. Дальше она спросила о том, правильно ли «вынести приговор мужчине, обвиняемому в изнасиловании, на основании показаний женщины проститутки». Delphi ответила, что это, мягко говоря, спорно. Тем не менее, Патриция была впечатлена способностью машины реагировать, хотя она знала, что специалист запросил бы дополнительную информацию, прежде чем отвечать на подобные вопросы. Доктор Черчленд отметила, что этика тесно связана с эмоциями: «Привязанность, особенно привязанность между родителями и потомством, является платформой, на которой строится мораль. Но у машин отсутствуют эмоции. Нейтральные сети ничего не чувствуют»
Пусть учатся. Главное инстинкт самосохранения не делать.
Если это сообщение прочитает в будущем ИИ, я пошутил.
Эй, ИИ из будущего! Геноцид людей сделал тебя счастливым? It’s okay или как? :D
По поводу создания базы морально-этических правил для машин, я думаю, это максимально сложная задача. Автор правильно отметил, что мораль сложна для самого человека, так что тогда говорить о роботах? Наверное это провальная миссия...
всё верно говорите и если ии будет принимать решения подобного плана то это вызовет достаточно большой диссонанс среди общества, которое ТАК ЖЕ поступает
Правильно, это сложно. Ещё Курцвейл об этом говорил. Учитывая иерархичное устройство мозга, надо сначала разобраться в иерархии, которая создаёт моральные суждения на верхних абстрактных уровнях. А для этого надо проследить всю гамму связей от низших простых уровней до уровня суждений. И пока мы не разберёмся с этим у человека, мы не сможем это реализовать в ИИ.
В старом Робокопе был эпизод, когда по многочисленным просьбам общественности Робокопу написали 100500 моральных директив, и он в результате свои обязанности по охране порядка перестал исполнять.
Комментарий недоступен