Два человека погибли в аварии с Tesla в США — машиной, предположительно, управлял автопилот Статьи редакции
В стране расследуют ещё 23 таких дела.
Полицейские округа Харрис в Техасе заявили, что за рулём автомобиля Tesla, который врезался в дерево и загорелся, никого не было, передаёт The New York Times.
Об этом свидетельствуют вещественные доказательства с места происшествия и допросы свидетелей, говорят они. Это предварительная версия властей, официально причина аварии пока не названа из-за пожара.
По словам полицейского, Model S 2019 года выпуска двигалась с «высокой скоростью». Один из погибших был на переднем пассажирском сиденье, а другой — на заднем, добавил он. Tesla уже связалась с полицейскими, но от других комментариев изданию отказалась, пишет NYT.
В марте Национальное управление безопасностью дорожного движения США заявило, что расследует 23 аварии с участием Tesla, в которых водители точно использовали автопилот или могли его использовать. О первом смертельном ДТП при использовании автопилота Tesla сообщила в 2016 году.
Проблема допуска автопилота на дорогу во многом лежит в юридической плоскости и звучит вот так:
1) может ли корректная работа автопилота допускать причинение вреда имуществу и здоровью/жизни людей?
2) кто будет нести ответственность, водитель или производитель, если корректная работа автопилота была причиной причинения вреда имуществу и здоровью/жизни людей?
Проблема вагонетки, короче, на практике.
Никто не спешит на себя брать ответственность за эти решения.
Кто будет нести ответственность, если ты засунул руку в работающий миксер? Миксер будет нести ответственность? Или его производитель?
А кто будет нести ответственность, если между собакой и ребенком автопилот выберет наезд на ребенка?
Не-не-не. Есть вопрос поинтереснее. Что должен выбрать автопилот, если вариантов ровно два:
А. При манёвре погибнет водитель.
Б. При манёвре погибнет подросток, внезапно оказавшийся на трассе.
Что там насчёт Первого правила робототехники от Айзека Азимова? )
И так тоже, да :)