Роботоэтика: кто пытается ограничить использование ИИ и что думают эксперты о технологической морали
Какие этические нормы должны распространяться на роботов.
Частные инициативы
В декабре 2015 года Илон Маск и президент венчурного фонда Y Combinator Сэм Альтман основали компанию OpenAI. Она занимается развитием «открытых» и неспособных навредить человеку технологий искусственного интеллекта.
Межорганизационные инициативы и решения внутри компаний
В 2016 году в компании Microsoft появился совет по этике. Его создал Эрик Хорвиц, глава исследовательской лаборатории компании. Экспертная группа консультирует Microsoft по спорным вопросам в отношении работы ИИ.
В сентябре того же года Хорвиц и Мустафа Сулейман из компании DeepMind посодействовали появлению консорциума «Партнерство в области ИИ». Первоначально в организацию вошли Microsoft, DeepMind, Amazon, Facebook, Google и IBM, в январе 2017 к ней присоединилась Apple.
Кроме глобальных технологических компаний вопросы этики волнуют и представителей других отраслей. Например, в 2016 году глобальная юридическая фирма K&L Gates выделила $10 млн на создание фонда, занимающегося вопросами этики и вычислительными технологиями, в Университете Карнеги — Меллона.
Государственные инициативы
Об этической стороне разработки искусственного интеллекта говорили в правительстве Франции.
В конце 2017 года правительство Великобритании выпустило отчёт о том, как государство может поддерживать развитие ИИ. Как сообщает Forbes, в апреле 2018 года комитет палаты лордов по вопросам ИИ опубликовал исследование "AI in the UK: Ready, Willing and Able?".
В основе исследования лежат пять основных принципов:
- Искусственный интеллект должен развиваться для общего блага и пользы человечества.
- Искусственный интеллект должен опираться на принципы разборчивости и справедливости.
- Искусственный интеллект не должен использоваться для ущемления прав и конфиденциальности отдельных лиц, семей или сообществ.
- Все граждане должны иметь право на образование, чтобы вместе с искусственным интеллектом развиваться умственно, эмоционально и экономически.
- У искусственного интеллекта не должно быть установок на причинение вреда, обман или уничтожение человека.
Скандалы и вопросы этики
В июне 2018 года компания Google опубликовала принципы использования ИИ в своей работе. По мнению сотрудников, искусственный интеллект должен:
- быть социально полезным;
- избегать создания или усиления несправедливости и предвзятости;
- создаваться и тестироваться без причинения вреда;
- быть понятен простому человеку;
- включать в себя принципы конфиденциальности;
- поддерживать высокие стандарты научного исследования;
- предоставляться для использования в соответствии с указанными выше принципами.
Редакция The Guardian назвала это «немного большим, чем пылью в глаза», однако отметила, что принципы демонстрируют обеспокоенность инженеров в отношении технологий.
Этические принципы от Google появились как реакция на скандал с участием компании. Когда стало известно, что технологический гигант участвовал в проекте Marven по разработке ИИ для военных беспилотников под началом Пентагона, более 3100 рабочих выразили свой протест и нежелание косвенно участвовать «в военных разработках».
1 июня глава Google Cloud Дайан Грин заявила о том, что после истечения договора в 2019 году компания перестанет принимать в программе какое-либо участие. 7 июня появились новые этические принципы компании.
В мае 2018 года специалист в области данных Изабель Клуманн на ежегодной конференции Facebook отметила примеры потенциально неэтичного использования ИИ.
В рамках своего исследования Клуманн задействовала программу Fairness Flow, которая помогает выявить потенциальные предубеждения искусственного интеллекта. Как сказала Изабель, результаты показали, что модели машинного обучения могут демонстрировать сексистское отношение к женщинам и расизм.
Использование самоуправляемых автомобилей тоже вызывает вопросы. В марте 2018 года в Аризоне произошла первая авария со смертью пешехода при участии самоуправляющегося автомобиля Uber, за ней — происшествие с летальным исходом для водителя Tesla на автопилоте.
Что думают представители рынка
Мнения экспертов о потенциале искусственного интеллекта и этических принципах в его отношении.
Вначале надо сделать достойный ИИ.
А вдруг тогда будет уже поздно задаваться вопросами морали?
ИИ выпилит насквозь аморальных кожаных мешков?