Роботоэтика: кто пытается ограничить использование ИИ и что думают эксперты о технологической морали
Какие этические нормы должны распространяться на роботов.
Частные инициативы
В декабре 2015 года Илон Маск и президент венчурного фонда Y Combinator Сэм Альтман основали компанию OpenAI. Она занимается развитием «открытых» и неспособных навредить человеку технологий искусственного интеллекта.
Межорганизационные инициативы и решения внутри компаний
В 2016 году в компании Microsoft появился совет по этике. Его создал Эрик Хорвиц, глава исследовательской лаборатории компании. Экспертная группа консультирует Microsoft по спорным вопросам в отношении работы ИИ.
В сентябре того же года Хорвиц и Мустафа Сулейман из компании DeepMind посодействовали появлению консорциума «Партнерство в области ИИ». Первоначально в организацию вошли Microsoft, DeepMind, Amazon, Facebook, Google и IBM, в январе 2017 к ней присоединилась Apple.
Кроме глобальных технологических компаний вопросы этики волнуют и представителей других отраслей. Например, в 2016 году глобальная юридическая фирма K&L Gates выделила $10 млн на создание фонда, занимающегося вопросами этики и вычислительными технологиями, в Университете Карнеги — Меллона.
Государственные инициативы
Об этической стороне разработки искусственного интеллекта говорили в правительстве Франции.
В конце 2017 года правительство Великобритании выпустило отчёт о том, как государство может поддерживать развитие ИИ. Как сообщает Forbes, в апреле 2018 года комитет палаты лордов по вопросам ИИ опубликовал исследование "AI in the UK: Ready, Willing and Able?".
В основе исследования лежат пять основных принципов:
- Искусственный интеллект должен развиваться для общего блага и пользы человечества.
- Искусственный интеллект должен опираться на принципы разборчивости и справедливости.
- Искусственный интеллект не должен использоваться для ущемления прав и конфиденциальности отдельных лиц, семей или сообществ.
- Все граждане должны иметь право на образование, чтобы вместе с искусственным интеллектом развиваться умственно, эмоционально и экономически.
- У искусственного интеллекта не должно быть установок на причинение вреда, обман или уничтожение человека.
Скандалы и вопросы этики
В июне 2018 года компания Google опубликовала принципы использования ИИ в своей работе. По мнению сотрудников, искусственный интеллект должен:
- быть социально полезным;
- избегать создания или усиления несправедливости и предвзятости;
- создаваться и тестироваться без причинения вреда;
- быть понятен простому человеку;
- включать в себя принципы конфиденциальности;
- поддерживать высокие стандарты научного исследования;
- предоставляться для использования в соответствии с указанными выше принципами.
Редакция The Guardian назвала это «немного большим, чем пылью в глаза», однако отметила, что принципы демонстрируют обеспокоенность инженеров в отношении технологий.
Этические принципы от Google появились как реакция на скандал с участием компании. Когда стало известно, что технологический гигант участвовал в проекте Marven по разработке ИИ для военных беспилотников под началом Пентагона, более 3100 рабочих выразили свой протест и нежелание косвенно участвовать «в военных разработках».
1 июня глава Google Cloud Дайан Грин заявила о том, что после истечения договора в 2019 году компания перестанет принимать в программе какое-либо участие. 7 июня появились новые этические принципы компании.
В мае 2018 года специалист в области данных Изабель Клуманн на ежегодной конференции Facebook отметила примеры потенциально неэтичного использования ИИ.
В рамках своего исследования Клуманн задействовала программу Fairness Flow, которая помогает выявить потенциальные предубеждения искусственного интеллекта. Как сказала Изабель, результаты показали, что модели машинного обучения могут демонстрировать сексистское отношение к женщинам и расизм.
Использование самоуправляемых автомобилей тоже вызывает вопросы. В марте 2018 года в Аризоне произошла первая авария со смертью пешехода при участии самоуправляющегося автомобиля Uber, за ней — происшествие с летальным исходом для водителя Tesla на автопилоте.
Что думают представители рынка
Мнения экспертов о потенциале искусственного интеллекта и этических принципах в его отношении.
Никакие.
Хватит нести чепуху.
Для того же автопилота придется создавать этические нормы, по любому.
Эти нормы должны быть закреплены на законодательном уровне, чтоб алгоритм не выбирал вариант сбить группу людей ради спасения владельца.
Выбирал сбить пенсионера вместо ребенка и т.д.
Если эти этические нормы не разработать, то будет масса скандалов негативно настраивающее общество на использование ИИ, как следствие, замедление внедрения и проигрыш в глобальной конкуренции.
Выбор между пенсионером и ребенком - это не вопрос морали или этики
А чего?
Ваш вопрос аналогичен: Как моральнее убить человека. С точки зрения морали - никак. Аморально вообще убивать. Это вопрос личного выбора, а мораль осудит любой исход где есть убитый.
Вы хотите, чтоб разработчик автопилота выбирал, спасти группу детей переходящих дорогу или водителя?
Боюсь это создаст масс препон для внедрения автопилота, который снизит общую аварийность в десятки раз.
Тот случай, когда отсутствие четкого выбора аморально само по себе.
Не понял. Если автопилоту приходится выбирать, то в итоге будет авария в любом случае. О каком снижении аварийности идет речь? И чем водитель хуже группы детей, которые нарушают ПДД?
Снижение аварийности у автопилота будет общее по сравнению с автомобилями управляемыми людьми.
И чем водитель хуже группы детей, которые нарушают ПДД?А если не нарушают?
А если нарушают но их много и они малолетние?
Установление четких норм поведения необходимо именно разработчикам автопилотов, чтоб не брать на себя какую либо ответственность вообще.
Так как алгоритм очень быстро работает, ему придется делать конкретный выбор в конкретной ситуации.
Вы начали с выбора между ребенком и пенсионером, а закончили выбором между одним человеком и группой детей.
Если дети не нарушали ПДД, то такой выбор может возникнуть только в случае неисправности автопилота. Если автопилот не исправен, то о чем вообще разговор? Его решения в изначально неверные. Если дети нарушали, то почему за нарушени ПДД другими должен расплачиваться человек, котрый ПДД не нарушал? Где тут вообще мораль?
Все варианты нужно формализовать.
Например, у автомобиля с автопилотом лопнуло колесо, ему остается выбор: ехать в столб и с большой вероятностью убить водителя или остановиться об толпу детей, спасти водителя таким образом.
Как вы думаете, если на законодательном уровне не решать эту дилемму, что заложит в алгоритм производитель люксовых авто?
Теперь колесо лопнуло. Вы продолжаете вводить переменные на ходу. У нас простейшие законы вызывают противоречия, а вы хотите сложные многофакторные ситуации умудрится формализовать да еще так, чтобы они не вызывали разночтений. Такая формализация возможна только посредством написания готовой программы.
Никита, я бы с Вами согласился, но одна из причин _стресса_ человека в большом городе - это все более и более типизированные, похожие один на другой дни, состоящие из стандартных операций в замкнутых пространствах. Так что это поддаётся алгоритмизации.
Речь как раз о формализации поведения в нетипичных/нестандартных ситуациях.
Никита, пока решается просто - на автозаводах при ряде условий, робот просто тормозит конвейер, и всё.
Скажем, на Тойоте в Шушарах в СПб, вроде как ставили конвейере с минимальной роботизацией - именно потому, что полностью роботизированное производство будет тормозить конвейер при выпадении типоразмеров комплектухи на % или даже доли % от заданных "погрешностей" - а они сразу делали ставку на скорую локализацию производства и закладывали большой процент этих самых погрешностей.