Будущее Margarita Vznuzdaeva
2 385

Роботоэтика: кто пытается ограничить использование ИИ и что думают эксперты о технологической морали

Какие этические нормы должны распространяться на роботов.

В закладки

Частные инициативы

В декабре 2015 года Илон Маск и президент венчурного фонда Y Combinator Сэм Альтман основали компанию OpenAI. Она занимается развитием «открытых» и неспособных навредить человеку технологий искусственного интеллекта.

Мы обсудили, что мы можем сделать, чтобы обеспечить хорошее будущее. Мы могли бы просто сидеть в стороне, поощрять регуляторный надзор, или же поучаствовать в развитии ИИ как безопасного и полезного для человечества инструмента.

Илон Маск

Межорганизационные инициативы и решения внутри компаний

В 2016 году в компании Microsoft появился совет по этике. Его создал Эрик Хорвиц, глава исследовательской лаборатории компании. Экспертная группа консультирует Microsoft по спорным вопросам в отношении работы ИИ.

В сентябре того же года Хорвиц и Мустафа Сулейман из компании DeepMind посодействовали появлению консорциума «Партнерство в области ИИ». Первоначально в организацию вошли Microsoft, DeepMind, Amazon, Facebook, Google и IBM, в январе 2017 к ней присоединилась Apple.

Каждая новая технология приносит трансформацию, а трансформация иногда пугает людей, которые её не понимают. Одна из целей нашей группы — действительно объяснить и рассказать о возможностях искусственного интеллекта, в частности, о его опасности и об основных этических вопросах.

Ян Лекун
глава по вопросам искусственного интеллекта в Facebook

Кроме глобальных технологических компаний вопросы этики волнуют и представителей других отраслей. Например, в 2016 году глобальная юридическая фирма K&L Gates выделила $10 млн на создание фонда, занимающегося вопросами этики и вычислительными технологиями, в Университете Карнеги — Меллона.

Государственные инициативы

Об этической стороне разработки искусственного интеллекта говорили в правительстве Франции.

Национальный план по активизации развития искусственного интеллекта рассмотрит вопрос об установлении «этических и философских границ».

Эммануэль Макрон
президент Франции

В конце 2017 года правительство Великобритании выпустило отчёт о том, как государство может поддерживать развитие ИИ. Как сообщает Forbes, в апреле 2018 года комитет палаты лордов по вопросам ИИ опубликовал исследование "AI in the UK: Ready, Willing and Able?".

В Великобритании есть ведущие компании в области ИИ, динамичная исследовательская среда и энергичная экосистема стартапов, а также множество правовых, этических, финансовых и лингвистических сильных сторон. Мы должны максимально использовать область ИИ, но важно, чтобы этика занимала центральное место в её развитии.

Лорд Клемент-Джонс
председатель комитета

В основе исследования лежат пять основных принципов:

  1. Искусственный интеллект должен развиваться для общего блага и пользы человечества.
  2. Искусственный интеллект должен опираться на принципы разборчивости и справедливости.
  3. Искусственный интеллект не должен использоваться для ущемления прав и конфиденциальности отдельных лиц, семей или сообществ.
  4. Все граждане должны иметь право на образование, чтобы вместе с искусственным интеллектом развиваться умственно, эмоционально и экономически.
  5. У искусственного интеллекта не должно быть установок на причинение вреда, обман или уничтожение человека.

Скандалы и вопросы этики

В июне 2018 года компания Google опубликовала принципы использования ИИ в своей работе. По мнению сотрудников, искусственный интеллект должен:

  • быть социально полезным;
  • избегать создания или усиления несправедливости и предвзятости;
  • создаваться и тестироваться без причинения вреда;
  • быть понятен простому человеку;
  • включать в себя принципы конфиденциальности;
  • поддерживать высокие стандарты научного исследования;
  • предоставляться для использования в соответствии с указанными выше принципами.

Редакция The Guardian назвала это «немного большим, чем пылью в глаза», однако отметила, что принципы демонстрируют обеспокоенность инженеров в отношении технологий.

Этические принципы от Google появились как реакция на скандал с участием компании. Когда стало известно, что технологический гигант участвовал в проекте Marven по разработке ИИ для военных беспилотников под началом Пентагона, более 3100 рабочих выразили свой протест и нежелание косвенно участвовать «в военных разработках».

Мы считаем, что Google не должна заниматься военным делом.

Признавая моральную и этическую ответственность Google, угрозу репутации компании, мы просим вас:

1. Немедленно отменить участие в проекте.

2. Разработать, опубликовать и далее применять чёткую политику, в которой будет говориться, что ни Google, ни его подрядчики не будут когда-либо участвовать в создании технологий для ведения войны.

Текст письма от сотрудников Google

1 июня глава Google Cloud Дайан Грин заявила о том, что после истечения договора в 2019 году компания перестанет принимать в программе какое-либо участие. 7 июня появились новые этические принципы компании.

В мае 2018 года специалист в области данных Изабель Клуманн на ежегодной конференции Facebook отметила примеры потенциально неэтичного использования ИИ.

В рамках своего исследования Клуманн задействовала программу Fairness Flow, которая помогает выявить потенциальные предубеждения искусственного интеллекта. Как сказала Изабель, результаты показали, что модели машинного обучения могут демонстрировать сексистское отношение к женщинам и расизм.

Прежде чем запускать алгоритмы, давайте удостоверимся, что они не оказывают разного влияния на людей.

Изабель Клуманн

Использование самоуправляемых автомобилей тоже вызывает вопросы. В марте 2018 года в Аризоне произошла первая авария со смертью пешехода при участии самоуправляющегося автомобиля Uber, за ней — происшествие с летальным исходом для водителя Tesla на автопилоте.

Там, где технология создаёт проблему, она же её и решает. Так и в случае с самоуправляющимися автомобилями, которые смогут значительно сократить количество смертей ежегодно и в конечном итоге свести их до нуля.

Майкл Ханушик
генеральный директор стартапа Alpine для TED Blog

Люди уже доверяют свою жизнь технологиям — самолётам, поездам. Автономные транспортные средства — это всего лишь следующий шаг. Ничто не бывает совершенным, мы это и так знаем. Удобство и экономичность наряду с существующими гарантиями в итоге приведут к внедрению этой новой технологии.

Джанет Бейкер
основатель Dragon Systems для TED Blog

Что думают представители рынка

Мнения экспертов о потенциале искусственного интеллекта и этических принципах в его отношении.

Медиа сегодня часто перебарщивают со статьями про разнообразные антиутопические сценарии будущего, но объективно прогресс находится далеко не на уровне «Терминатора». Искусственный интеллект, который будет думать самостоятельно, не появится ни завтра, ни в обозримом будущем, если это вообще когда-нибудь произойдёт.

Даже сам термин «искусственный интеллект» и контекст его использования пока остаются спорными. Повышение точности алгоритмов — тренд бесспорный и положительный.

Инциденты с автономными автомобилями — скорее следствие не всегда дальновидных решений, которые принимает менеджмент компаний в стремлении обойти конкуренцию и выйти на рынок как можно скорее.

В то же время любая технология — это молоток, который можно использовать для самых разных целей, не только для безобидного забивания гвоздей. Поэтому я — сторонник позиции, что думать обо всех этических аспектах участники рынка должны уже сейчас.

Валерия Комиссарова
основатель консалтинговой компании в сфере развития бизнеса и сбора средств для стартапов Make Hardware в США

Я не считаю, что то, что называют сегодня искусственным интеллектом, может быть опасным для общества, потому что это не интеллект в том смысле, в котором мы его определяем в отношении способности к мышлению человека.

Пока это серьёзная алгоритмизация и использование нейронных сетей, мыслительного процесса не возникает при этом. С другой стороны, я склонен поддерживать начинание некоторых глав крупнейших ИТ-компаний, о котором недавно писали СМИ.

Они заявили, что не будут поддерживать применение искусственного интеллекта в военных разработках. Наверное, это опять-таки звучит преждевременно, но направление их усилий мне нравится, и я склонен его поддерживать.

Если говорить о проблемах, связанных с самоуправляющимися автомобилями, это скорее всё-таки показывает недоработку технологии, а не опасность искусственного интеллекта. Потому что ошибка возникла не из-за того, что машиной управлял искусственный интеллект, а потому, что его недостаточно хорошо обучили.

Поэтому технологии нужно дорабатывать, нужно разумно подходить к их применению. Государство, наверное, будет тоже принимать активное участие в этом. Кстати, помимо искусственного интеллекта есть намного более актуальные и высокие риски.

Например, если доработать квантовый компьютер, он уничтожит все системы криптозащиты, существующие в мире. Ко всему нужно подходить рационально, разумно и ответственно.

Искандер Гиниятуллин
партнёр в венчурном фонде Sistema VC

Есть много компаний, которые ведут военные разработки и стараются об этом не говорить. Мы не участвуем в проектах, продукты которых хотя бы потенциально могут применяться военными.

Сейчас активно обсуждают вопросы этичности применения искусственного интеллекта в различных областях: медицине, безопасности, кредитном скоринге, автономных автомобилях, рекламе и так далее.

Инновации в технологии открыли новые области для дискуссий в философии и этике. Мне кажется, общество ещё сформирует моральные нормы в этих областях, как это сейчас происходит в области персональных данных.

Юрий Мельничек
основатель инвестиционной компании по поддержке стартапов в области машинного обучения Bulba Ventures в Белоруссии

В какой-то момент робот оказывается в ситуации, в которой он не может не навредить человеку, и ему нужно принять решение, какому человеку навредить. В области самоуправляющихся автомобилей эта проблема может возникать когда угодно.

Нужны правила, например, если есть возможность уничтожить робота, если выбор стоит между ним и человеком. Но неизбежно закладывание принципов минимизации ущерба для человеческого сообщества. Очевидно, что это должно прописываться в законодательстве, что придётся оценивать жизнь ребёнка, женщины или мужчины.

Для роботов придётся прописывать жёсткие правила и некоторые системы ценностей, по которым решение придётся принимать на ходу, вычисляя вероятность того или иного исхода.

В шкале ценностей роботов жизнь человека должна быть на первом месте, послушание человеку — на втором месте, жизнь робота — на третьем, послушание другому роботу — на четвёртом.

Когда мы говорим об ущербе, например, на рынке самоуправляющихся автомобилей, то речь обычно идёт о процентах: вероятность того или иного случая должна быть заведомо не больше, чем при вождении автомобиля человеком.

Производители самоуправляемых авто стараются завышать требования к безопасности, чтобы риски по отношению к человеческому фактору были не просто ниже, а значительно ниже.

Антон Колонин
основатель Aigents, архитектор по программному обеспечению для искусственного интеллекта и блокчейна в Singularity NET

Идея развития искусственного интеллекта как такового подразумевала, что можно создать систему, где принятие решений будет базироваться не на субъективных идеях человека, а на неких объективных признаках.

Мы можем собрать много информации о том, как мир жил, попытаться её проанализировать и заставить искусственный интеллект найти принципы, по которым он может существовать.

Причём наиболее вероятно, что эти принципы нельзя будет формализовать на человеческий язык, это будет такой чёрный ящик, в котором ты можешь создать ситуацию или вопрос, и он будет давать принятие решения. И вот этот чёрный ящик и станет фундаментальной этикой для робототехники.

При этом надо понимать, что решения могут быть неэтичными, в общем, в этом-то и есть проблема, именно поэтому люди боятся искусственного интеллекта. К примеру, убийство человека сложно назвать морально недопустимым решением, потому что если мы представим себе ситуацию, в которой есть вероятность убить одного человека или десять человек, это должно произойти, вопрос в количестве.

После мы узнаём, что один человек — владелец автомобиля, а десять человек — группа из детей. Формализовать признак конкретно в этой ситуации, скорее всего, невозможно. Можно сделать чёрный ящик, проанализировав то, как подобное происходило до этого, и он будет объективным.

В ближайшее время такой чёрный ящик не будет создан, так как мы сейчас практически не используем робототехнику в b2c-секторе, то есть как клиенты практически не взаимодействуем с ней. Первым «публичным» шагом, наверно, можно назвать самоуправляемые авто, а в остальном пока это работает только на предприятиях.

Сейчас робототехника — это оптимизация конкретных бизнес-процессов: хотим быстрее перекладывать продукты с одного конвейера на другой, сортировать их при этом, но это не может создавать угрозу.

Есть отдельное направление — это военная робототехника, оно регулируется государством, нам как отдельно взятым людям трудно трактовать, где этически правильно государству поступить, а где — нет. Оно преследует чуть более глобальные задачи.

Как когда-то писал Ремарк: «одна смерть — это трагедия, а миллион смертей — это статистика». Государство не может ощущать трагедию, для него смерть одного человека — это то, что происходит ежедневно.

Мы точно не сможем коснуться этики военной робототехники, а вся промышленная область будет развивать то, о чём я рассказывал до этого.

Алексей Хахунов
сооснователь и технический директор блокчейн-платформы Dbrain, основатель R-Sept и connectome.ai

#будущее

Материал опубликован пользователем. Нажмите кнопку «Написать», чтобы поделиться мнением или рассказать о своём проекте.

Написать
{ "author_name": "Margarita Vznuzdaeva", "author_type": "self", "tags": ["\u0431\u0443\u0434\u0443\u0449\u0435\u0435"], "comments": 84, "likes": 17, "favorites": 1, "is_advertisement": false, "subsite_label": "future", "id": 43205, "is_wide": false, "is_ugc": true, "date": "Mon, 06 Aug 2018 17:50:00 +0300" }
{ "id": 43205, "author_id": 87596, "diff_limit": 1000, "urls": {"diff":"\/comments\/43205\/get","add":"\/comments\/43205\/add","edit":"\/comments\/edit","remove":"\/admin\/comments\/remove","pin":"\/admin\/comments\/pin","get4edit":"\/comments\/get4edit","complain":"\/comments\/complain","load_more":"\/comments\/loading\/43205"}, "attach_limit": 2, "max_comment_text_length": 5000, "subsite_id": 199118, "possessions": [] }

84 комментария 84 комм.

Популярные

По порядку

Написать комментарий...
2

Какие этические нормы должны распространяться на роботов.

Никакие.
Хватит нести чепуху.

Ответить
0

Для того же автопилота придется создавать этические нормы, по любому.

Эти нормы должны быть закреплены на законодательном уровне, чтоб алгоритм не выбирал вариант сбить группу людей ради спасения владельца.
Выбирал сбить пенсионера вместо ребенка и т.д.
Если эти этические нормы не разработать, то будет масса скандалов негативно настраивающее общество на использование ИИ, как следствие, замедление внедрения и проигрыш в глобальной конкуренции.

Ответить
1

Тут что-то не так с языком. "Распространение этических норм" на кого либо — это, вроде как, вопрос применения этических норм в отношении кого-то. Скажем, распространение этических норм на животных, это значит, что над животными нельзя издеваться и т.п..
А распространение _выполнения_ роботами каких либо этических норм — это другое. Но всё равно это чепуха, потому что робот — это всего лишь сложное устройство. Не он является субъектом, выполняющим этические нормы, а тот, кто несёт личную ответственность за его действия (разработчик, настройщик, эксплуатант). Никто ведь не задаёт вопрос о выполнении этических норм молотком или винтовкой?

Ответить
1

Не он является субъектом выполняющим этические нормы, а тот, кто несёт личную ответственность за его действия (разработчик, настройщик, эксплуатант).

Естественно, думаю это подразумевается изначально.
Этические нормами нужно именно их и обложить, а главное, четко разделить ответственность между разработчиком и тем кто эксплуатировать будет.

Ответить
1

Вот!
Но прикол в том (и статья тому подтверждение) что тут валят в кучу всё сразу. Смело пользуются понятием "робот", как будто оно обозначает что-то конкретное. В статье встречается даже понятие "жизнь робота"! А про тяжёлую жизнь платы управления никто не хочет поговорить? Или про бесславную жизнь концевого выключателя? Просто клиника... Из то же серии, что избиение стиральных машинок и крики на тостер.

Ответить
2

Скажите спасибо, что вся статья не из гифок хоть.

Ответить
0

Кирилл, with all of my respect, попробуйте написать лучше :) Тут такая штука - все кто что-то может сделать в плане AI - уже очень сильно заняты на своих $150k+ в год.
А остальное - к сожалению, все больше схоластика, на тему того, кто кого поборет - кит или слон.

Ответить
1

Не получится написать лучше конкретно по теме. Потому что темы нет. Потому что журналисты пишут о роботах и ИИ то, чего просто не существует на текущий момент и на обозримую перспективу. Нет ни роботов, ни ИИ в том виде, в котором они преподносятся. Есть более или менее сложные железяки, обладающие большей или меньшей степенью адаптивности. Нет никаких _особых_ моральных и этических проблем, связанных с "роботами". Есть лишь проблема трансляции человеческой этики на автоматические системы, на которые возлагается принятие необратимых решений, от которых зависит здоровье и жизнь людей. Что существенно (а этот момент для многих журналистов, похоже, скрыт туманом), это ничуть не очеловечивает оные системы и не перекладывает вопрос этичности действий с плеч людей на плечи систем.

Вот только так могу написать. ))

Ответить
0

Кирилл, статья просто сборник цитат. Немного механически набранный. Иногда такой "дайджест" по теме считается интересной журналисткой или даже научной работой. Не будем слишком много требовать, ок?

Ответить
1

Сборник _показательных_ цитат.
Многие из них напоминают вот эту нетленку:
https://www.youtube.com/watch?v=g5ZWJXxpbbk

Ответить
0

Выбор между пенсионером и ребенком - это не вопрос морали или этики

Ответить
0

Ваш вопрос аналогичен: Как моральнее убить человека. С точки зрения морали - никак. Аморально вообще убивать. Это вопрос личного выбора, а мораль осудит любой исход где есть убитый.

Ответить
0

Вы хотите, чтоб разработчик автопилота выбирал, спасти группу детей переходящих дорогу или водителя?
Боюсь это создаст масс препон для внедрения автопилота, который снизит общую аварийность в десятки раз.
Тот случай, когда отсутствие четкого выбора аморально само по себе.

Ответить
1

Вопрос, увы, неверен. Зачем его задавать применительно к автопилоту, если на него нет ответа применительно к живому водителю?
Повторюсь: нет никакого вопроса этики автопилота или иной железяки. Все эти вопросы — вопросы человеческой этики. Человек в описанной ситуации страшного выбора едва ли смог бы сделать здравый выбор, а уж тем более едва ли выбор, при наличии такового, мог быть понят окружающими. Так что тут можно хотеть от железяки, если сами не знаем этичного ответа на вопрос? Чуда? ))

Ответить
0

Кирилл, люди всю историю активно убивают людей. Вся история - это история войн. В том числе и прямо сейчас. Человек тем и отличается от животных, что убивает из удовольствия и без ограничений. Иногда даже во вред себе. Вот сняты эти тормоза в человеческой программе.
Т.е. кровосмешение - это явно плохо (это прошито кем-то на уровне ПЗУ), а насилие, убийства и каннибализм (про который недавно удалили пост) - это в принципе норм.
 
Так что AI делают прежде всего для военки - чтобы убивать эффективнее. И всякие автопилоты для автомашин - это так, отходы производства.

Ответить
0

Не понял. Если автопилоту приходится выбирать, то в итоге будет авария в любом случае. О каком снижении аварийности идет речь? И чем водитель хуже группы детей, которые нарушают ПДД?

Ответить
0

Снижение аварийности у автопилота будет общее по сравнению с автомобилями управляемыми людьми.
И чем водитель хуже группы детей, которые нарушают ПДД?

А если не нарушают?
А если нарушают но их много и они малолетние?
Установление четких норм поведения необходимо именно разработчикам автопилотов, чтоб не брать на себя какую либо ответственность вообще.
Так как алгоритм очень быстро работает, ему придется делать конкретный выбор в конкретной ситуации.

Ответить
0

Вы начали с выбора между ребенком и пенсионером, а закончили выбором между одним человеком и группой детей.

Если дети не нарушали ПДД, то такой выбор может возникнуть только в случае неисправности автопилота. Если автопилот не исправен, то о чем вообще разговор? Его решения в изначально неверные. Если дети нарушали, то почему за нарушени ПДД другими должен расплачиваться человек, котрый ПДД не нарушал? Где тут вообще мораль?

Ответить
0

Все варианты нужно формализовать.
Например, у автомобиля с автопилотом лопнуло колесо, ему остается выбор: ехать в столб и с большой вероятностью убить водителя или остановиться об толпу детей, спасти водителя таким образом.
Как вы думаете, если на законодательном уровне не решать эту дилемму, что заложит в алгоритм производитель люксовых авто?

Ответить
0

Теперь колесо лопнуло. Вы продолжаете вводить переменные на ходу. У нас простейшие законы вызывают противоречия, а вы хотите сложные многофакторные ситуации умудрится формализовать да еще так, чтобы они не вызывали разночтений. Такая формализация возможна только посредством написания готовой программы.

Ответить
0

Тогда тому же автопилоту путь заказан, а это проигрыш в глобальной конкуренции.

Ответить
0

Автопилоты уже ездят без всей этой "моральной" регуляции. Поэтому я бы не был так категоричен.

Ответить
1

Ездят они мало где, по крайней мере легально.
С большой вероятностью, все упирается и в "моральную" регуляцию в том числе.
Например, допустимость определенного процента ошибок, тесла сбила пешехода и сколько воплей и молчат что у нее кол-во ошибок на пробег лучше чем у самого лучшего водителя.
Люди готовы к ошибка у человека, но не готовы к ошибкам у машины, это тоже моральный аспект проблемы, так как с рациональной точки зрения, меньше ошибок даже на 10% уже шикарно.

Ответить
0

Потому что это новая технология, а не из-за отсутствия "этических норм для роботов"

Ответить
0

Может еще и потому, что у всего нового часто еще нет этических норм? Поэтому люди боятся нового?

Ответить
0

Расскажите какие этические нормы появились для других в прошлом новых технологий.

Ответить
0

Расскажите мне о технологиях прошлого, которые могли принимать самостоятельное решение, напрямую влияющее на жизнь человека.

Ответить
0

Что такое "самостоятельное решение"? Стимуляторы для сердца подойдут?

Ответить
0

Это решения, которые не очевидны даже для разработчика, без жестко заданного алгоритма, такие как выдает нейронка.

Ответить
0

При чем тут самостоятельность? Нейронка выдает решения, согласно тому как ее обучили. Она сама ничего не решает.

Ответить
0

Похоже вы слабо понимаете как работают нейронные сети.

Ответить
0

Я прекрасно понимаю как работают НС, я с ними работал до того как это стало модным. Вы почему-то думаете, что НС это какая-то магия отличная от обычной программы. Любая сложная программа выдает результаты, которые неочевидны авторам. НС это просто очень сложная программа. При этом обычным программам никто не придумывает этические нормы.

Ответить
0

Покажите ваш проект, а то похоже что вы дилетант в НС.
Обычным программам не нужно решать, кого убить, водителя или пешеходов, а автопилоту это необходимо делать.
Этические нормы нужны чтоб перестать сдерживать массовое внедрение.

Ответить
0

Зачем? Я уже давно этим не занимаюсь. Или это сродни "сперва добейся"? А вот ваша вера в магию НС говорит о том, что вы только читали о НС из подобных статей.

Это решать не НС, а их авторам. И тут вообще не важно НС или классическая программа будет под капотом. Что в НС, что в классический программе, если эти кейсы специально не учтены, решение будет случайным. В этом плане НС ничем не отличается от любой другой программы.

Ответить
0

Магии нет, есть выдаваемые НС решения, которые не очевидны и непредсказанные разработчиком заранее.
Но самое главное, почему решать кого убить а кого нет, должен разработчик?
По моему, это разработчику нафиг не уперлось, ему нужны четкие правила.

Ответить
0

Вы как-то избирательно читаете мои комментарии? Неочевидные и непредсказанные решения будут в любой сложной программе, если их в ней специально не учитывать. Они возможны даже в простейших программах и для этого есть специальное название: "edge case".

почему решать кого убить а кого нет, должен разработчик?

Вы как-то вольно меняете контекст для слова решать. Выше вы пишите, что НС решает, я же пишу, что решает не НС, а разработчик когда закладывает в нее логику. НС просто следует правилам, заложенным разработчиком.

это разработчику нафиг не уперлось, ему нужны четкие правила.

Как же сейчас автопилоты делают?

Ответить
0

Они возможны даже в простейших программах

В НС они нормальны а не возможны.

Как же сейчас автопилоты делают?

А причем тут сделать и внедрить в массы?
В каких странах автопилот разрешен в полноценном объеме?

Ответить
0

В НС они нормальны а не возможны.

"Возможны" тут было для "простейших программ". Для сложных программ неправильные результаты в неучтенных случаях это тоже норма. Или по-вашему для НС норма выдавать неправильные результат в учтенных случаях?

А причем тут сделать и внедрить в массы?

Не знаю при чем тут сделать и внедрить в массы. Я отвечал на "это разработчику нафиг не уперлось, ему нужны четкие правила". Автопилоты делают без "четких правил" и это "уперлось" разработчикам.

Ответить
0

Или по-вашему для НС норма выдавать неправильные результат

Норма выдавать непредсказуемый результат.

Автопилоты делают без "четких правил" и это "уперлось" разработчикам.

Это пока их поделки в песочницах работают, как к ним начнут предъявлять реальные претензии и засуживать на многие миллиарды, они первыми начнут требовать четкие правила, т.е. моральные нормы, чтоб снять с себя ответственность.

Ответить
0

Норма выдавать непредсказуемый результат.

Отвечать на часть предложения это сильно! Норма выдавать непредсказуемый результат в случаях, когда входные данные и ожидаемый результат из обучающей выборки? *facepalm*

Вы понимаете, что если это так, то это означает, что НС нельзя использовать совсем, потому что она выдает непредсказуемый результат и в этом случае наличие правил ничего не изменит, потому что результат так и останется непредсказуемым?

Это пока их поделки в песочницах работают,

Опять предположения и допущения.

Ответить
0

потому что она выдает непредсказуемый результат

Это вообще то норма для HC.

наличие правил ничего не изменит

Решения выданные НС можно было бы сверять с набором правил.
Правила нужны, чтоб снять неограниченную ответственность с разработчиков.

Ответить
0

Решения выданные НС можно было бы сверять с набором правил.

А это нужно для чего? Чтобы сеть выдавала предсказуемые значения? Но это по вашему невозможно.

Ответить
0

Чтоб контролировать сеть.

Ответить
0

Контролировать каким образом, если результаты сети непредсказуемы?

Ответить
0

Под капотом только нейронка поместится?

Ответить
0

Чтоб контролировать сеть.

Под капотом только нейронка поместится?

А? Вы так тему решили сменить? Или сеть у вас тут что-то другое, кроме НС?

Ответить
0

Тему замусорить софистикой пытаетесь как раз вы, разговор начался с того, что для систем решающих кому жить а кому умирать, нужны четкие правила, не разработчик это должен решать.

Ответить
0

Это не софистика, я опровергаю глупости про НС, которые вы тут пишите.

Так как вы предлагаете, контролировать сеть если она выдает непредсказуемые результаты?

Ответить
0

Например другой сетью, вариантов много, это уже технические детали.
Главное, чтоб были четкие правила как какое решение принимать в трудном выборе.

Ответить
0

Бля. Вы можете в голове держать контекст всей дискусси?. Вы отвечаете на комментарий, как будто он первый.

Решения выданные НС можно было бы сверять с набором правил.

А это нужно для чего? Чтобы сеть выдавала предсказуемые значения? Но это по вашему невозможно.

Чтоб контролировать сеть.

Контролировать каким образом, если результаты сети непредсказуемы?

Обратите внимание на вторую цитату. Ваш контроль для чего нужен? Чтобы сеть выдавала правильные значения для контрольных входных значений? Но выше вы писали что для сети норма выдавать неправильные значения в таких случаях. Поэтому мне не ясно что вы понимаете под контролем и с какой целью он осуществляется, если сеть не может нормально обучаться (по вашим словам).

Ответить
0

Вам общения не хватает?
что для сети норма выдавать неправильные значения в таких случаях.

Зачем вы пишите о том что я не говорил?
Я говорил про непредсказуемые решения, разницу понимаете?

Ответить
0

А вам? И это пишет человек, который одновременно пишет в нескольких темах. :)

Говорили. Либо вы как-то плохо читаете:

На:

Норма выдавать непредсказуемый результат в случаях, когда входные данные и ожидаемый результат из обучающей выборки? *facepalm*

Ваш ответ:

Это вообще то норма для HC.

Выдавать непредсказуемый результат для обучающей выборки значит выдавать неверный результат.

Или вы что-то другое хотели тут сказать?

Ответить
0

Выдавать непредсказуемый результат для обучающей выборки значит выдавать неверный результат.

Ахахах, вы таки с вазелином в руке родились, я не заметил выше ваше "из обучающей выборки"
Все с вами понятно, вы про поболтать а не про истину...
Рейронка оказывается нужна, чтоб работать исключительно по обучающей выборке, мда...

Ответить
0

не заметил выше ваше "из обучающей выборки"

Вообще-то это было ключевое. Вы даже не можете коммент прочитать внимательно.

Рейронка оказывается нужна, чтоб работать исключительно по обучающей выборке, мда...

Я такого не писал. Вы снова где-то что-то пропустили или не дочитали.

Впрочем выяснять что и где больше не хочется, удачи.

Ответить
0

Где это я такое писал?

А зачем вы вообще это писали:
из обучающей выборки

Просто, чтоб победить в дебатах?
У меня глаз эту ахинею даже не заметил, я бы сразу вас макнул в это фейсом.
удачи.

И вам не хворать, любитель софистики.

Ответить
0

А зачем вы вообще это писали:

Просто, чтоб победить в дебатах?

Если возникают такие вопросы, значит проблема с внимательностью чтения не разовая. Вы бы знали зачем я это писал, если бы внимательно читали что я писал до этого. Выяснить это оставляю вам как самостоятельное упражнение.

Ответить
0

Я поэтому и спрашивал про ваш проект с НС, видно что понимаете вопрос поверхностно, а желание выкрутится большое.
Давайте подытожим тред!
Набор правил, кому жить а кому умирать для разработчиков того же автопилота, нужны или пусть сами решают?

Ответить
0

Вы не осилили внимательно прочитать мои комментарии, приписали мне то, что я не утверждал, и делаете вывод о моем уровне знания НС. Нормальный трольской подход.

Если вы пролистаете выше, то вы найдете мое мнение на этот счет, котороя писал вам. Такие полные и непротиворечивые правила возможно составить только в виде готовой программы, а это невозможно. Разработчики будут вынуждены делать выбор сами за пределами простейших случаев, которые хоть как-то смогут описать в законах.

Кроме того, каждый автопилот уникален, и нельзя составить общие правила, которые однозначно бы транслировались во входные и выходные данные автопилота и тут огромный простор для адаптации и жульничества.

Ответить
0

Вы предлагаете разработчикам нести материальную и уголовную ответственность за неограниченный список возможных ошибок?

Ответить
0

Нести ответственность должен виновник аварии. Автопилот нарушил ПДД - виновнен, не нарушал - не виновен. Остальное это манипуляции.

Ответить
0

Как вариант, тот кто покупает и использует автопилот, может заключать с разработчиком контракт на 100500 страниц, в котором признает свою ответственность за все возможные ошибки автопилота текущей версии и всех последующий обновлений, тогда можно обойтись без общий правил для разработчиков, но вероятно, так автопилот медленно будет завоевывать дороги.

Ответить
0

Вы перешли от этических вопросов к юридическим махинациям. В нормальной правовой системе водитель не может нести ответственность за решения автопилота, если этот автопилот легален.

Ответить
0

Разработчик должен нести ответственность?
Боюсь без этических норм - четких правил, описания какое именно зло меньшее, в тех же сша, первый серьезный случай разорит разработчика.

Ответить
0

А кто должен нести ответственность при нарушении ПДД автопилотом?

Ответить
0

По справедливости разработчик, а тот уже должен разбираться как это вышло, даже если подвело железо, ПО должно было прекратить движение.
Но в реале, я думаю будут подписывать соглашение в котором вся вина будет на пользователе, типа должен был контролировать автопилот.
Автопилот без человека с права на всех дорогах еще не скоро появится.

Ответить
0

Не заказан, просто нужно вкладывать триллионы долларов, и неизвестно до чего еще этот AI додумается, если деньги найдутся.
...
Я уже писал, адекватная стратегия выглядит в выпуске комплектов на $10 000 - $20 000 - устанавливаемых в обычные серийные автомобили (комплект датчиков + связь) - и установке за счет производителя системы - с платой _владельцам_ авто в размере $50-$100 в месяц.
Дальше, сбор Big Data в течение 3-5 лет, и обновление ПО на этих "зондах" .. возможно - бесплатное дооснащение по железу.
И снова сбор данных.
Что именно делают люди, как ездят, как поворачивают, разгоняются, тормозят. Как - самое важное - попадают в аварии (что показывают датчики, и достаточно ли они показывают).

Ответить
0

Насчет триллионов долларов вы загнули, вряд ли яндексу это по плечу а автопилот у них уже есть. Вообще он сложен не технически, а юридически и этически, кого сбивать, бабулю или детей, кто ценнее водитель или пешеходы и т.д.

Ответить
0

Причем здесь Яндекс или Google? Это, вполне реальный способ накопления информации для построения более-менее идеального автопилота для серийного производства. Только его пока никому не потянуть, ну разве что кроме правительства США.
P.S. Про Yandex self driving killmobile, была заметка на VC и было обсуждение. Где 80% ньюфагов хотят и за рулем авто втыкать в планшетик с экраном побольше, и пусть виртуальный "извозчик" их везет, как Митрофанушку, главное чтобы разговорами и присутствием своим (в виде водителя такси) не донимал.

Ответить
0

"Не потянуть" согласен только в юридической сфере, в технической, он уже работает, хоть и с ошибками, но ошибок меньше чем у среднестатистического водителя, а значит он уже безопаснее и полезнее.

Ответить
0

Никита, я бы с Вами согласился, но одна из причин _стресса_ человека в большом городе - это все более и более типизированные, похожие один на другой дни, состоящие из стандартных операций в замкнутых пространствах. Так что это поддаётся алгоритмизации.

Ответить
0

Речь как раз о формализации поведения в нетипичных/нестандартных ситуациях.

Ответить
0

Никита, пока решается просто - на автозаводах при ряде условий, робот просто тормозит конвейер, и всё.
Скажем, на Тойоте в Шушарах в СПб, вроде как ставили конвейере с минимальной роботизацией - именно потому, что полностью роботизированное производство будет тормозить конвейер при выпадении типоразмеров комплектухи на % или даже доли % от заданных "погрешностей" - а они сразу делали ставку на скорую локализацию производства и закладывали большой процент этих самых погрешностей.

Ответить
0

Ваш вопрос аналогичен

Аморально вообще убивать

Версию морали пожалуйста укажите, и желательно исторический период.

Ответить
1

В любой исторический период убийство было аморальным. Были разные "но" и допущения о необходимости, однако в целом аморально.

Ответить
2

4. Все граждане должны иметь право на образование, чтобы вместе с искусственным интеллектом развиваться умственно, эмоционально и экономически.

Ещё все граждане должны иметь право на посещение спортивных секций, где их научат летать со скоростью 800+ км/ч, как самолёты и нырять на полгода под воду, как подводные лодки. Чтобы развиваться вместе с техникой

Ответить
2

Пурга лютая, поржал. Если мы говорим об ИНТЕЛЛЕКТЕ, то мы можем лишь, как Виктор Франкенштейн, создать, наблюдать развитие и остановить. Если мы говорим о контроле, установках, правилах, то это про алгоритмы принятия сложных решений на уровне создания искусственного сердца, легких, конечностей и их взаимодействия в человеке. Ну в крайнем случае - собака Павлова. Но это всё не ИИ.

Ответить
0

Вначале надо сделать достойный ИИ.

Ответить
1

А вдруг тогда будет уже поздно задаваться вопросами морали?

Ответить
0

ИИ выпилит насквозь аморальных кожаных мешков?

Ответить
0

Все это полная херня для успокоения публики. Ставки в гонке ИИ огромные - это и деньги, и военное преимущество и власть и что хочешь. Выиграет самый беспринципный.

Ответить
0

Ага. Пока люди собирают цитатки в кучи и вспоминают старину Айзека, простые парни тестируют нечто вроде Short Circuit роботов, и обсуждают конкретные вещи - например что система пока фигово работает в жарком климате (тепловые метки человеческих тел теряются на фоне жары в джунглях), и что пока еще систему легко обмануть, прикопавшись в окопчик песком и замерев неподвижно, но и по этому поводу ведет работу 6-ой отдел.

Ответить
0

Автор, но Вы ведь в курсе, что есть рынок AI для военки, и дроны вполне успешно не только следят и передают, но и бомбят/стреляют и т.д.? В том числе, взрываются при незапланированной посадке на вражеской территории.
Скажем, автоматические туррели (охрана периметра) с системой распознавания свой-чужой (по датчикам, по электронному ключу) - вполне отработанная технология, работающая уже пару десятков лет.
 
Прежде чем рассматривать "вегетарианские" применения движущихся роботов, стоит наверно вспомнить о роботах и дронах военных - вполне успешно убивающих людей прямо сейчас. И там вопрос только про "ложные срабатывания" и работу под контролем оператора или без этого контроля.
 
По большому счету "умные" бомбы и ракеты - это тоже роботы, кстати. Даже поумнее иных творений Маска :)

Ответить
0

давайте поможем развитию технологий. Прочитайте проект/книгу "Мир с точки зрения интеллекта", там много интересных и полезных текстов и идей. Например создать главный, единый интернет ресурс где будут опубликованы все необходимые знания, опыт и последовательностей действий для создания технологий, чтобы любая большая группа людей могла быстро создать то, что хочет и чтобы все желающие могли познавать и развивать технологий и публиковать знания и опыт.
Пожалуйста прочитайте книгу или тексты на сайте проекта, может это шанс всё изменить.

Ответить
0
{ "page_type": "article" }

Прямой эфир

[ { "id": 1, "label": "100%×150_Branding_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox_method": "createAdaptive", "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfl" } } }, { "id": 2, "label": "1200х400", "provider": "adfox", "adaptive": [ "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfn" } } }, { "id": 3, "label": "240х200 _ТГБ_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fizc" } } }, { "id": 4, "label": "240х200_mobile", "provider": "adfox", "adaptive": [ "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "flbq" } } }, { "id": 5, "label": "300x500_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfk" } } }, { "id": 6, "label": "1180х250_Interpool_баннер над комментариями_Desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "h", "ps": "bugf", "p2": "ffyh" } } }, { "id": 7, "label": "Article Footer 100%_desktop_mobile", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjxb" } } }, { "id": 8, "label": "Fullscreen Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjoh" } } }, { "id": 9, "label": "Fullscreen Mobile", "provider": "adfox", "adaptive": [ "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjog" } } }, { "id": 10, "disable": true, "label": "Native Partner Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fmyb" } } }, { "id": 11, "disable": true, "label": "Native Partner Mobile", "provider": "adfox", "adaptive": [ "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fmyc" } } }, { "id": 12, "label": "Кнопка в шапке", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "p1": "bscsh", "p2": "fdhx" } } }, { "id": 13, "label": "DM InPage Video PartnerCode", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox_method": "createAdaptive", "adfox": { "ownerId": 228129, "params": { "pp": "h", "ps": "bugf", "p2": "flvn" } } }, { "id": 14, "label": "Yandex context video banner", "provider": "yandex", "yandex": { "block_id": "VI-223676-0", "render_to": "inpage_VI-223676-0-1104503429", "adfox_url": "//ads.adfox.ru/228129/getCode?pp=h&ps=bugf&p2=fpjw&puid1=&puid2=&puid3=&puid4=&puid8=&puid9=&puid10=&puid21=&puid22=&puid31=&puid32=&puid33=&fmt=1&dl={REFERER}&pr=" } }, { "id": 15, "label": "Плашка на главной", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "p1": "byudx", "p2": "ftjf" } } }, { "id": 16, "label": "Кнопка в шапке мобайл", "provider": "adfox", "adaptive": [ "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "p1": "byzqf", "p2": "ftwx" } } }, { "id": 17, "label": "Stratum Desktop", "provider": "adfox", "adaptive": [ "desktop" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fzvb" } } }, { "id": 18, "label": "Stratum Mobile", "provider": "adfox", "adaptive": [ "tablet", "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fzvc" } } }, { "id": 19, "label": "Тизер на главной", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "p1": "cbltd", "p2": "gazs" } } } ]
Команда калифорнийского проекта
оказалась нейронной сетью
Подписаться на push-уведомления
{ "page_type": "default" }