{"id":14276,"url":"\/distributions\/14276\/click?bit=1&hash=721b78297d313f451e61a17537482715c74771bae8c8ce438ed30c5ac3bb4196","title":"\u0418\u043d\u0432\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u043b\u044e\u0431\u043e\u0439 \u0442\u043e\u0432\u0430\u0440 \u0438\u043b\u0438 \u0443\u0441\u043b\u0443\u0433\u0443 \u0431\u0435\u0437 \u0431\u0438\u0440\u0436\u0438","buttonText":"","imageUuid":""}

Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
0
561 комментарий
Написать комментарий...
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Артем Ткаченко

А я вот как раз задумался в последнее время. Чем отличается искусственный интеллект от неискуственного? Мы же также обучаемая на чужих высказываниях, языках и т.п. Как будто любой описательный термин про ИИ подходит к человеку.

Ответить
Развернуть ветку
Del Ins Up

Мы можем творить сами, без внешней задачи и внешнего оператора, по своему желанию.

Ответить
Развернуть ветку
Rnatery

Есть гипотеза сильный искусственный интеллект

Ответить
Развернуть ветку
Del Ins Up

Пока ИИ не существует. Ни в каком виде.

Ответить
Развернуть ветку
Rnatery

Не путай с искусственным сознанием, искусственный интеллект давно есть .

Термин «искусственный интеллект» ранее использовался для описания машин, которые имитируют и демонстрируют «человеческие» когнитивные навыки, связанные с человеческим разумом, такие как «обучение» и «решение проблем». С тех пор это определение было отвергнуто крупными исследователями ИИ, которые теперь описывают ИИ с точки зрения рациональности и рационального действия, что не ограничивает то, как интеллект может быть сформулирован. [б]
Приложения ИИ включают в себя передовые веб-поисковые системы (например, Google), рекомендательные системы (используемые YouTube, Amazon и Netflix), понимание человеческой речи (например, Siri и Alexa), самоуправляемые автомобили (например, Tesla), автоматизированное принятие решений и конкуренцию на самом высоком уровне в стратегических игровых системах (таких как шахматы и го). ). [2] По мере того, как машины становятся все более способными, задачи, которые, как считается, требуют «интеллекта», часто удаляются из определения ИИ, явления, известного как эффект ИИ. [3] Например, оптическое распознавание символов часто исключается из вещей, считающихся ИИ,[4] став рутинной технологией. [5]
Ответить
Развернуть ветку
Del Ins Up

То что маркетологи везде лепят слово ИИ, и внутри лежат нейронные сети, к ИИ не имеет никакого отношения.

Ответить
Развернуть ветку
Rnatery

Как будто внутри человек не нейроны. Это не маркетологи называют, а ученые
Есть Artificial Narrow Intelligence.

Ответить
Развернуть ветку
558 комментариев
Раскрывать всегда