MIT опубликовал результаты теста: в нём нужно было выбирать, кого может спасти, а кого сбить беспилотная машина Статьи редакции
Тест The Moral Machine прошли 2 млн человек.
Исследователи из MIT опубликовали результаты онлайн-эксперимента. Они создали сайт The Moral Machine и предложили пользователям выбирать, как поступать беспилотному автомобилю в гипотетической ситуации: например, спасти троих детей-пешеходов и бездомного или пожертвовать четырьмя взрослыми пассажирами.
Среди гипотетических пешеходов и пассажиров перечислены младенцы, дети, беременные, атлеты и полные мужчины и женщины, руководители компаний, преступники и другие, включая собак и кошек.
Тест, основанный на так называемой проблеме вагонетки, прошли более 2 млн человек из 233 стран. Всего онлайн-игра получила около 40 млн ответов на вопросы.
Один из авторов исследования Эдмонд Авад (Edmond Awad) выделил три основных результата: люди обычно «спасают» людей, а не животных; молодых вместо старых; а также большие группы вместо малых.
Но эти результаты разнятся в зависимости от стран. На основе ответов исследователи разделили страны на несколько групп: «восточные», «западные» и «южные». Например, южные страны чаще всего «спасали» молодых людей, особенно в сравнении с восточными — жители этих стран часто выбирали спасение для пожилых.
ПДД настаивает в случае возникновения нештатной ситуации (как пример: дебилы-пешеходы решили прогуляться по дороге на запрещающий сигнал светофора) продолжать движение в изначальном направлении или в крайнем случае съехать на обочину, если это безопасно, а не устраивать резких непредсказуемых манёвров и перестроений, чтобы не повлечь ещё больше жертв. Правила одни для всех и беспилотные автомобили им должны подчиняться в том числе. Со временем безмозглые холопы не пройдут проверку естественным отбором и подобные ситуации прекратятся. Такие дела.
Комментарий недоступен
Ничего не поменялось в условиях задачи. Просто "человечный" водила попробует затормозить и устроит завал на 10 машин с кучей трупов, а автопилот проедет прямо , собьет одного пешехода и этим всё закончится.
Любые добавления тут - от лукавого и человеческих эмоций, и начинают цепочку противоречий типа тех что описаны в статье. Главная фишка автоматов - в том, что они не подвержены эмоциям. Есть правила действий в тех или иных ситуациях, и они будут следовать им. Машина ориентируется на rule, человек - на outcome. Исправной машине же вообще насрать на outcome, и это и есть основа автопилотов.
Если им начать дописывать функции типа "обькт слегка белый- бей, объект чёрный - устраивай завал, дави на тротуаре 20 человек, но обьезжай", то это будет бесконечная череда правок и работать ничего не будет.
Комментарий недоступен