Роботоэтика: кто пытается ограничить использование ИИ и что думают эксперты о технологической морали
Какие этические нормы должны распространяться на роботов.
Частные инициативы
В декабре 2015 года Илон Маск и президент венчурного фонда Y Combinator Сэм Альтман основали компанию OpenAI. Она занимается развитием «открытых» и неспособных навредить человеку технологий искусственного интеллекта.
Межорганизационные инициативы и решения внутри компаний
В 2016 году в компании Microsoft появился совет по этике. Его создал Эрик Хорвиц, глава исследовательской лаборатории компании. Экспертная группа консультирует Microsoft по спорным вопросам в отношении работы ИИ.
В сентябре того же года Хорвиц и Мустафа Сулейман из компании DeepMind посодействовали появлению консорциума «Партнерство в области ИИ». Первоначально в организацию вошли Microsoft, DeepMind, Amazon, Facebook, Google и IBM, в январе 2017 к ней присоединилась Apple.
Кроме глобальных технологических компаний вопросы этики волнуют и представителей других отраслей. Например, в 2016 году глобальная юридическая фирма K&L Gates выделила $10 млн на создание фонда, занимающегося вопросами этики и вычислительными технологиями, в Университете Карнеги — Меллона.
Государственные инициативы
Об этической стороне разработки искусственного интеллекта говорили в правительстве Франции.
В конце 2017 года правительство Великобритании выпустило отчёт о том, как государство может поддерживать развитие ИИ. Как сообщает Forbes, в апреле 2018 года комитет палаты лордов по вопросам ИИ опубликовал исследование "AI in the UK: Ready, Willing and Able?".
В основе исследования лежат пять основных принципов:
- Искусственный интеллект должен развиваться для общего блага и пользы человечества.
- Искусственный интеллект должен опираться на принципы разборчивости и справедливости.
- Искусственный интеллект не должен использоваться для ущемления прав и конфиденциальности отдельных лиц, семей или сообществ.
- Все граждане должны иметь право на образование, чтобы вместе с искусственным интеллектом развиваться умственно, эмоционально и экономически.
- У искусственного интеллекта не должно быть установок на причинение вреда, обман или уничтожение человека.
Скандалы и вопросы этики
В июне 2018 года компания Google опубликовала принципы использования ИИ в своей работе. По мнению сотрудников, искусственный интеллект должен:
- быть социально полезным;
- избегать создания или усиления несправедливости и предвзятости;
- создаваться и тестироваться без причинения вреда;
- быть понятен простому человеку;
- включать в себя принципы конфиденциальности;
- поддерживать высокие стандарты научного исследования;
- предоставляться для использования в соответствии с указанными выше принципами.
Редакция The Guardian назвала это «немного большим, чем пылью в глаза», однако отметила, что принципы демонстрируют обеспокоенность инженеров в отношении технологий.
Этические принципы от Google появились как реакция на скандал с участием компании. Когда стало известно, что технологический гигант участвовал в проекте Marven по разработке ИИ для военных беспилотников под началом Пентагона, более 3100 рабочих выразили свой протест и нежелание косвенно участвовать «в военных разработках».
1 июня глава Google Cloud Дайан Грин заявила о том, что после истечения договора в 2019 году компания перестанет принимать в программе какое-либо участие. 7 июня появились новые этические принципы компании.
В мае 2018 года специалист в области данных Изабель Клуманн на ежегодной конференции Facebook отметила примеры потенциально неэтичного использования ИИ.
В рамках своего исследования Клуманн задействовала программу Fairness Flow, которая помогает выявить потенциальные предубеждения искусственного интеллекта. Как сказала Изабель, результаты показали, что модели машинного обучения могут демонстрировать сексистское отношение к женщинам и расизм.
Использование самоуправляемых автомобилей тоже вызывает вопросы. В марте 2018 года в Аризоне произошла первая авария со смертью пешехода при участии самоуправляющегося автомобиля Uber, за ней — происшествие с летальным исходом для водителя Tesla на автопилоте.
Что думают представители рынка
Мнения экспертов о потенциале искусственного интеллекта и этических принципах в его отношении.
Никакие.
Хватит нести чепуху.
Для того же автопилота придется создавать этические нормы, по любому.
Эти нормы должны быть закреплены на законодательном уровне, чтоб алгоритм не выбирал вариант сбить группу людей ради спасения владельца.
Выбирал сбить пенсионера вместо ребенка и т.д.
Если эти этические нормы не разработать, то будет масса скандалов негативно настраивающее общество на использование ИИ, как следствие, замедление внедрения и проигрыш в глобальной конкуренции.
Выбор между пенсионером и ребенком - это не вопрос морали или этики
А чего?
Ваш вопрос аналогичен: Как моральнее убить человека. С точки зрения морали - никак. Аморально вообще убивать. Это вопрос личного выбора, а мораль осудит любой исход где есть убитый.
Вы хотите, чтоб разработчик автопилота выбирал, спасти группу детей переходящих дорогу или водителя?
Боюсь это создаст масс препон для внедрения автопилота, который снизит общую аварийность в десятки раз.
Тот случай, когда отсутствие четкого выбора аморально само по себе.
Не понял. Если автопилоту приходится выбирать, то в итоге будет авария в любом случае. О каком снижении аварийности идет речь? И чем водитель хуже группы детей, которые нарушают ПДД?
Снижение аварийности у автопилота будет общее по сравнению с автомобилями управляемыми людьми.
И чем водитель хуже группы детей, которые нарушают ПДД?А если не нарушают?
А если нарушают но их много и они малолетние?
Установление четких норм поведения необходимо именно разработчикам автопилотов, чтоб не брать на себя какую либо ответственность вообще.
Так как алгоритм очень быстро работает, ему придется делать конкретный выбор в конкретной ситуации.
Вы начали с выбора между ребенком и пенсионером, а закончили выбором между одним человеком и группой детей.
Если дети не нарушали ПДД, то такой выбор может возникнуть только в случае неисправности автопилота. Если автопилот не исправен, то о чем вообще разговор? Его решения в изначально неверные. Если дети нарушали, то почему за нарушени ПДД другими должен расплачиваться человек, котрый ПДД не нарушал? Где тут вообще мораль?
Все варианты нужно формализовать.
Например, у автомобиля с автопилотом лопнуло колесо, ему остается выбор: ехать в столб и с большой вероятностью убить водителя или остановиться об толпу детей, спасти водителя таким образом.
Как вы думаете, если на законодательном уровне не решать эту дилемму, что заложит в алгоритм производитель люксовых авто?
Теперь колесо лопнуло. Вы продолжаете вводить переменные на ходу. У нас простейшие законы вызывают противоречия, а вы хотите сложные многофакторные ситуации умудрится формализовать да еще так, чтобы они не вызывали разночтений. Такая формализация возможна только посредством написания готовой программы.
Тогда тому же автопилоту путь заказан, а это проигрыш в глобальной конкуренции.
Автопилоты уже ездят без всей этой "моральной" регуляции. Поэтому я бы не был так категоричен.
Ездят они мало где, по крайней мере легально.
С большой вероятностью, все упирается и в "моральную" регуляцию в том числе.
Например, допустимость определенного процента ошибок, тесла сбила пешехода и сколько воплей и молчат что у нее кол-во ошибок на пробег лучше чем у самого лучшего водителя.
Люди готовы к ошибка у человека, но не готовы к ошибкам у машины, это тоже моральный аспект проблемы, так как с рациональной точки зрения, меньше ошибок даже на 10% уже шикарно.
Потому что это новая технология, а не из-за отсутствия "этических норм для роботов"
Может еще и потому, что у всего нового часто еще нет этических норм? Поэтому люди боятся нового?
Расскажите какие этические нормы появились для других в прошлом новых технологий.
Расскажите мне о технологиях прошлого, которые могли принимать самостоятельное решение, напрямую влияющее на жизнь человека.
Что такое "самостоятельное решение"? Стимуляторы для сердца подойдут?
Это решения, которые не очевидны даже для разработчика, без жестко заданного алгоритма, такие как выдает нейронка.
При чем тут самостоятельность? Нейронка выдает решения, согласно тому как ее обучили. Она сама ничего не решает.
Похоже вы слабо понимаете как работают нейронные сети.
Я прекрасно понимаю как работают НС, я с ними работал до того как это стало модным. Вы почему-то думаете, что НС это какая-то магия отличная от обычной программы. Любая сложная программа выдает результаты, которые неочевидны авторам. НС это просто очень сложная программа. При этом обычным программам никто не придумывает этические нормы.
Покажите ваш проект, а то похоже что вы дилетант в НС.
Обычным программам не нужно решать, кого убить, водителя или пешеходов, а автопилоту это необходимо делать.
Этические нормы нужны чтоб перестать сдерживать массовое внедрение.
Зачем? Я уже давно этим не занимаюсь. Или это сродни "сперва добейся"? А вот ваша вера в магию НС говорит о том, что вы только читали о НС из подобных статей.
Это решать не НС, а их авторам. И тут вообще не важно НС или классическая программа будет под капотом. Что в НС, что в классический программе, если эти кейсы специально не учтены, решение будет случайным. В этом плане НС ничем не отличается от любой другой программы.
Магии нет, есть выдаваемые НС решения, которые не очевидны и непредсказанные разработчиком заранее.
Но самое главное, почему решать кого убить а кого нет, должен разработчик?
По моему, это разработчику нафиг не уперлось, ему нужны четкие правила.
Вы как-то избирательно читаете мои комментарии? Неочевидные и непредсказанные решения будут в любой сложной программе, если их в ней специально не учитывать. Они возможны даже в простейших программах и для этого есть специальное название: "edge case".
почему решать кого убить а кого нет, должен разработчик?Вы как-то вольно меняете контекст для слова решать. Выше вы пишите, что НС решает, я же пишу, что решает не НС, а разработчик когда закладывает в нее логику. НС просто следует правилам, заложенным разработчиком.
это разработчику нафиг не уперлось, ему нужны четкие правила.Как же сейчас автопилоты делают?
В НС они нормальны а не возможны.
Как же сейчас автопилоты делают?А причем тут сделать и внедрить в массы?
В каких странах автопилот разрешен в полноценном объеме?
"Возможны" тут было для "простейших программ". Для сложных программ неправильные результаты в неучтенных случаях это тоже норма. Или по-вашему для НС норма выдавать неправильные результат в учтенных случаях?
А причем тут сделать и внедрить в массы?Не знаю при чем тут сделать и внедрить в массы. Я отвечал на "это разработчику нафиг не уперлось, ему нужны четкие правила". Автопилоты делают без "четких правил" и это "уперлось" разработчикам.
Норма выдавать непредсказуемый результат.
Автопилоты делают без "четких правил" и это "уперлось" разработчикам.Это пока их поделки в песочницах работают, как к ним начнут предъявлять реальные претензии и засуживать на многие миллиарды, они первыми начнут требовать четкие правила, т.е. моральные нормы, чтоб снять с себя ответственность.
Отвечать на часть предложения это сильно! Норма выдавать непредсказуемый результат в случаях, когда входные данные и ожидаемый результат из обучающей выборки? *facepalm*
Вы понимаете, что если это так, то это означает, что НС нельзя использовать совсем, потому что она выдает непредсказуемый результат и в этом случае наличие правил ничего не изменит, потому что результат так и останется непредсказуемым?
Это пока их поделки в песочницах работают,Опять предположения и допущения.
Это вообще то норма для HC.
наличие правил ничего не изменитРешения выданные НС можно было бы сверять с набором правил.
Правила нужны, чтоб снять неограниченную ответственность с разработчиков.
А это нужно для чего? Чтобы сеть выдавала предсказуемые значения? Но это по вашему невозможно.
Чтоб контролировать сеть.
Контролировать каким образом, если результаты сети непредсказуемы?
Под капотом только нейронка поместится?
Под капотом только нейронка поместится?
А? Вы так тему решили сменить? Или сеть у вас тут что-то другое, кроме НС?
Тему замусорить софистикой пытаетесь как раз вы, разговор начался с того, что для систем решающих кому жить а кому умирать, нужны четкие правила, не разработчик это должен решать.
Это не софистика, я опровергаю глупости про НС, которые вы тут пишите.
Так как вы предлагаете, контролировать сеть если она выдает непредсказуемые результаты?
Например другой сетью, вариантов много, это уже технические детали.
Главное, чтоб были четкие правила как какое решение принимать в трудном выборе.
Бля. Вы можете в голове держать контекст всей дискусси?. Вы отвечаете на комментарий, как будто он первый.
Решения выданные НС можно было бы сверять с набором правил.А это нужно для чего? Чтобы сеть выдавала предсказуемые значения? Но это по вашему невозможно.
Чтоб контролировать сеть.
Контролировать каким образом, если результаты сети непредсказуемы?
Обратите внимание на вторую цитату. Ваш контроль для чего нужен? Чтобы сеть выдавала правильные значения для контрольных входных значений? Но выше вы писали что для сети норма выдавать неправильные значения в таких случаях. Поэтому мне не ясно что вы понимаете под контролем и с какой целью он осуществляется, если сеть не может нормально обучаться (по вашим словам).
Вам общения не хватает?
что для сети норма выдавать неправильные значения в таких случаях.Зачем вы пишите о том что я не говорил?
Я говорил про непредсказуемые решения, разницу понимаете?
А вам? И это пишет человек, который одновременно пишет в нескольких темах. :)
Говорили. Либо вы как-то плохо читаете:
На:
Норма выдавать непредсказуемый результат в случаях, когда входные данные и ожидаемый результат из обучающей выборки? *facepalm*Ваш ответ:
Это вообще то норма для HC.Выдавать непредсказуемый результат для обучающей выборки значит выдавать неверный результат.
Или вы что-то другое хотели тут сказать?
Ахахах, вы таки с вазелином в руке родились, я не заметил выше ваше "из обучающей выборки"
Все с вами понятно, вы про поболтать а не про истину...
Рейронка оказывается нужна, чтоб работать исключительно по обучающей выборке, мда...
Вообще-то это было ключевое. Вы даже не можете коммент прочитать внимательно.
Рейронка оказывается нужна, чтоб работать исключительно по обучающей выборке, мда...Я такого не писал. Вы снова где-то что-то пропустили или не дочитали.
Впрочем выяснять что и где больше не хочется, удачи.
А зачем вы вообще это писали:
из обучающей выборкиПросто, чтоб победить в дебатах?
удачи.У меня глаз эту ахинею даже не заметил, я бы сразу вас макнул в это фейсом.
И вам не хворать, любитель софистики.
Просто, чтоб победить в дебатах?
Если возникают такие вопросы, значит проблема с внимательностью чтения не разовая. Вы бы знали зачем я это писал, если бы внимательно читали что я писал до этого. Выяснить это оставляю вам как самостоятельное упражнение.
Я поэтому и спрашивал про ваш проект с НС, видно что понимаете вопрос поверхностно, а желание выкрутится большое.
Давайте подытожим тред!
Набор правил, кому жить а кому умирать для разработчиков того же автопилота, нужны или пусть сами решают?
Вы не осилили внимательно прочитать мои комментарии, приписали мне то, что я не утверждал, и делаете вывод о моем уровне знания НС. Нормальный трольской подход.
Если вы пролистаете выше, то вы найдете мое мнение на этот счет, котороя писал вам. Такие полные и непротиворечивые правила возможно составить только в виде готовой программы, а это невозможно. Разработчики будут вынуждены делать выбор сами за пределами простейших случаев, которые хоть как-то смогут описать в законах.
Кроме того, каждый автопилот уникален, и нельзя составить общие правила, которые однозначно бы транслировались во входные и выходные данные автопилота и тут огромный простор для адаптации и жульничества.
Вы предлагаете разработчикам нести материальную и уголовную ответственность за неограниченный список возможных ошибок?
Нести ответственность должен виновник аварии. Автопилот нарушил ПДД - виновнен, не нарушал - не виновен. Остальное это манипуляции.
Как вариант, тот кто покупает и использует автопилот, может заключать с разработчиком контракт на 100500 страниц, в котором признает свою ответственность за все возможные ошибки автопилота текущей версии и всех последующий обновлений, тогда можно обойтись без общий правил для разработчиков, но вероятно, так автопилот медленно будет завоевывать дороги.
Вы перешли от этических вопросов к юридическим махинациям. В нормальной правовой системе водитель не может нести ответственность за решения автопилота, если этот автопилот легален.
Разработчик должен нести ответственность?
Боюсь без этических норм - четких правил, описания какое именно зло меньшее, в тех же сша, первый серьезный случай разорит разработчика.
А кто должен нести ответственность при нарушении ПДД автопилотом?
По справедливости разработчик, а тот уже должен разбираться как это вышло, даже если подвело железо, ПО должно было прекратить движение.
Но в реале, я думаю будут подписывать соглашение в котором вся вина будет на пользователе, типа должен был контролировать автопилот.
Автопилот без человека с права на всех дорогах еще не скоро появится.