Идея развития искусственного интеллекта как такового подразумевала, что можно создать систему, где принятие решений будет базироваться не на субъективных идеях человека, а на неких объективных признаках.
Мы можем собрать много информации о том, как мир жил, попытаться её проанализировать и заставить искусственный интеллект найти принципы, по которым он может существовать.
Причём наиболее вероятно, что эти принципы нельзя будет формализовать на человеческий язык, это будет такой чёрный ящик, в котором ты можешь создать ситуацию или вопрос, и он будет давать принятие решения. И вот этот чёрный ящик и станет фундаментальной этикой для робототехники.
При этом надо понимать, что решения могут быть неэтичными, в общем, в этом-то и есть проблема, именно поэтому люди боятся искусственного интеллекта. К примеру, убийство человека сложно назвать морально недопустимым решением, потому что если мы представим себе ситуацию, в которой есть вероятность убить одного человека или десять человек, это должно произойти, вопрос в количестве.
После мы узнаём, что один человек — владелец автомобиля, а десять человек — группа из детей. Формализовать признак конкретно в этой ситуации, скорее всего, невозможно. Можно сделать чёрный ящик, проанализировав то, как подобное происходило до этого, и он будет объективным.
В ближайшее время такой чёрный ящик не будет создан, так как мы сейчас практически не используем робототехнику в b2c-секторе, то есть как клиенты практически не взаимодействуем с ней. Первым «публичным» шагом, наверно, можно назвать самоуправляемые авто, а в остальном пока это работает только на предприятиях.
Сейчас робототехника — это оптимизация конкретных бизнес-процессов: хотим быстрее перекладывать продукты с одного конвейера на другой, сортировать их при этом, но это не может создавать угрозу.
Есть отдельное направление — это военная робототехника, оно регулируется государством, нам как отдельно взятым людям трудно трактовать, где этически правильно государству поступить, а где — нет. Оно преследует чуть более глобальные задачи.
Как когда-то писал Ремарк: «одна смерть — это трагедия, а миллион смертей — это статистика». Государство не может ощущать трагедию, для него смерть одного человека — это то, что происходит ежедневно.
Мы точно не сможем коснуться этики военной робототехники, а вся промышленная область будет развивать то, о чём я рассказывал до этого.
Алексей Хахунов, сооснователь и технический директор блокчейн-платформы Dbrain, основатель R-Sept и connectome.ai
Какие этические нормы должны распространяться на роботов.Никакие.
Хватит нести чепуху.
Для того же автопилота придется создавать этические нормы, по любому.
Эти нормы должны быть закреплены на законодательном уровне, чтоб алгоритм не выбирал вариант сбить группу людей ради спасения владельца.
Выбирал сбить пенсионера вместо ребенка и т.д.
Если эти этические нормы не разработать, то будет масса скандалов негативно настраивающее общество на использование ИИ, как следствие, замедление внедрения и проигрыш в глобальной конкуренции.
4. Все граждане должны иметь право на образование, чтобы вместе с искусственным интеллектом развиваться умственно, эмоционально и экономически.
Ещё все граждане должны иметь право на посещение спортивных секций, где их научат летать со скоростью 800+ км/ч, как самолёты и нырять на полгода под воду, как подводные лодки. Чтобы развиваться вместе с техникой
Пурга лютая, поржал. Если мы говорим об ИНТЕЛЛЕКТЕ, то мы можем лишь, как Виктор Франкенштейн, создать, наблюдать развитие и остановить. Если мы говорим о контроле, установках, правилах, то это про алгоритмы принятия сложных решений на уровне создания искусственного сердца, легких, конечностей и их взаимодействия в человеке. Ну в крайнем случае - собака Павлова. Но это всё не ИИ.
Вначале надо сделать достойный ИИ.
А вдруг тогда будет уже поздно задаваться вопросами морали?
Все это полная херня для успокоения публики. Ставки в гонке ИИ огромные - это и деньги, и военное преимущество и власть и что хочешь. Выиграет самый беспринципный.