{"id":14268,"url":"\/distributions\/14268\/click?bit=1&hash=1e3309842e8b07895e75261917827295839cd5d4d57d48f0ca524f3f535a7946","title":"\u0420\u0430\u0437\u0440\u0435\u0448\u0430\u0442\u044c \u0441\u043e\u0442\u0440\u0443\u0434\u043d\u0438\u043a\u0430\u043c \u0438\u0433\u0440\u0430\u0442\u044c \u043d\u0430 \u0440\u0430\u0431\u043e\u0447\u0435\u043c \u043c\u0435\u0441\u0442\u0435 \u044d\u0444\u0444\u0435\u043a\u0442\u0438\u0432\u043d\u043e?","buttonText":"\u0423\u0437\u043d\u0430\u0442\u044c","imageUuid":"f71e1caf-7964-5525-98be-104bb436cb54"}

Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
0
561 комментарий
Написать комментарий...
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Артем Ткаченко

А я вот как раз задумался в последнее время. Чем отличается искусственный интеллект от неискуственного? Мы же также обучаемая на чужих высказываниях, языках и т.п. Как будто любой описательный термин про ИИ подходит к человеку.

Ответить
Развернуть ветку
Del Ins Up

Мы можем творить сами, без внешней задачи и внешнего оператора, по своему желанию.

Ответить
Развернуть ветку
Rnatery

Есть гипотеза сильный искусственный интеллект

Ответить
Развернуть ветку
Del Ins Up

Пока ИИ не существует. Ни в каком виде.

Ответить
Развернуть ветку
Rnatery

Не путай с искусственным сознанием, искусственный интеллект давно есть .

Термин «искусственный интеллект» ранее использовался для описания машин, которые имитируют и демонстрируют «человеческие» когнитивные навыки, связанные с человеческим разумом, такие как «обучение» и «решение проблем». С тех пор это определение было отвергнуто крупными исследователями ИИ, которые теперь описывают ИИ с точки зрения рациональности и рационального действия, что не ограничивает то, как интеллект может быть сформулирован. [б]
Приложения ИИ включают в себя передовые веб-поисковые системы (например, Google), рекомендательные системы (используемые YouTube, Amazon и Netflix), понимание человеческой речи (например, Siri и Alexa), самоуправляемые автомобили (например, Tesla), автоматизированное принятие решений и конкуренцию на самом высоком уровне в стратегических игровых системах (таких как шахматы и го). ). [2] По мере того, как машины становятся все более способными, задачи, которые, как считается, требуют «интеллекта», часто удаляются из определения ИИ, явления, известного как эффект ИИ. [3] Например, оптическое распознавание символов часто исключается из вещей, считающихся ИИ,[4] став рутинной технологией. [5]
Ответить
Развернуть ветку
Del Ins Up

То что маркетологи везде лепят слово ИИ, и внутри лежат нейронные сети, к ИИ не имеет никакого отношения.

Ответить
Развернуть ветку
Rnatery

Как будто внутри человек не нейроны. Это не маркетологи называют, а ученые
Есть Artificial Narrow Intelligence.

Ответить
Развернуть ветку
Non Existence

Человек не существует в вакууме. Часть эффекта, который мы называем сознанием приходит от самого человека, другая часть от общества и среды обитания.

Ответить
Развернуть ветку
Rnatery

Искусственный значит человек сам создал

Ответить
Развернуть ветку
Valeratal Val

Первая ошибка, путать интеллект и сознание. Это разные вещи

Ответить
Развернуть ветку
Алексей Сарычев

Это совершенно не ошибка. Есть сильный ИИ и слабый ИИ и, как раз, отличаются наличием сознания. В текущей терминологии сознания является частью ИИ.

Ответить
Развернуть ветку
Valeratal Val

сильный ИИ это значит имеющий сознание ? кмк это просто "давайте добавим какой-то признак, который никто достичь не может в ближ время"
все равно что писать, что сильный ИИ это когда 2 миллиарда нейронов. Если 1999999999 то еще слабый.
И вместо проблемы "как определить сильность ИИ" перепихивается проблема на "как определить сознание". а что если сознание есть, а интеллект все равно получится слабый (ну мало ли, квантовые компы развиваются) чем эту "силу" вообще мерить тогда? не беда, опять перепишут критерии. Для примера, что если, голосовой помощник типа Алисы обретет сознание. Станет ли он сильным ИИ? да нифига, все такой же довольно туповатый. Сойдет развлечь детей и как событыльник

Мне кажется это просто старая проблема нейминга. Потому что инженеры/фантасты не в теме терминологий психологии (биологии, медицины), где интеллект и сознание штуки разные
Пациент в сознании или пациент с интеллектом? ну очевидно это разные вещи

Ответить
Развернуть ветку
Алексей Сарычев

Под сознанием тут подразумевается конкретная вещь: ощущения себя внутри тела, способность мыслить и понимать что ты это ты.

От того, что мы пока что не можем измерить какой-то феномен не означает, что мы не имеем права его называть. Луна называлась луной задолго до того, как мы могли на нее высадиться и потрогать.

Сила интеллекта тут роли тоже не играет. Дети тупые, но при этом они обладают и интеллектом и сознанием.

Современные люди склонны переоценивать свой собственный вклад в интеллект: без доступа к обучению и знаниям мы бы вели себя точно также как африканские дикари или еще более древние племена. Головной мозг у нас с дикарям одинаковый.

Выражение "в сознании" имеет другой смысл, это просто означает что человек не спит и не в обмороке.

Подводя итог: несмотря на то, что есть определенные пробелы в человеческих знаниях, "сильный ИИ" это достаточно четко определенное понятие.

Ответить
Развернуть ветку
Valeratal Val

ну да, в психологии и медицине это примерно так и есть. Способность понимать "что ты это ты". ток интеллект тут не про это
Вот именно, дети с трех лет обладают самосознанием. хотя интеллект не очень. Поэтому называть ИИ сильным только на основе наличия сознания это какой-то бред
У меня кошка дома живет. у нее разве нет сознания. Есть. И Интеллект есть. Но не сильный (у собак считается лучше развит)

Ответить
Развернуть ветку
558 комментариев
Раскрывать всегда