{"id":14276,"url":"\/distributions\/14276\/click?bit=1&hash=721b78297d313f451e61a17537482715c74771bae8c8ce438ed30c5ac3bb4196","title":"\u0418\u043d\u0432\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u043b\u044e\u0431\u043e\u0439 \u0442\u043e\u0432\u0430\u0440 \u0438\u043b\u0438 \u0443\u0441\u043b\u0443\u0433\u0443 \u0431\u0435\u0437 \u0431\u0438\u0440\u0436\u0438","buttonText":"","imageUuid":""}

Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
0
561 комментарий
Написать комментарий...
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Denis Bystruev

Точно так же можно описать процессы, происходящие в мозгу человека. У каждого нейрона на входе несколько дендритов, на выходе — аксон. Мы точно знаем, что один нейрон сознанием не обладает, а мозг из 86 млрд нейронов его имеет. Когда именно появляется сознание, мы так и не установили.

Ответить
Развернуть ветку
Max Payne

ствол мозга энергию дал, чтоб ты проснулся и шел добывать еду и прочее. ктож виноват, что вместо этого мы сидим на форуме. а про сознание как самосознание уже все написано. человек отделился от племени, а для выживания оно необходимо. вот мозг и создал племя в голове, с которым ты выясняешь отношения. "Я" тоже побочный продукт деятельности мозга. Короче - ты даже подумать ничего не можешь "сам", все идет от мозга, а потом наверх к "сознанию" (ведь "ты" же не мог сейчас подумать что-то другое - ты подумал, что подумал твой мозг, точнее он тебе лишь информацию передал, перед фактом поставил - сейчас ты думаешь вот это, и ты такой - а вот "я" тут подумал и т.д.)

Ответить
Развернуть ветку
Perikl Samoss

Поток сознания, ей богу ))) Я и мой мозг - диалоги сумашедшего на лужайке. Вы это мозг. Из мозга вы все это кино смотрите и весь интерактив происходит там же. Больше ничего нет. Нет никакого я внутри мозга. Это устаревшая концепция.

Ответить
Развернуть ветку
Max Payne

еще скажите "вы" это написали, потому-что захотели, а не потому-что поддались импульсу. не путайте. я не могу быть мозгом, я его продукция, побочный продукт.

Ответить
Развернуть ветку
rimon

Смею допустить что этот орган обладает некоторой самостоятельностью вопреки желаниям носителя, но это проблемы носителя

Ответить
Развернуть ветку
Max Payne

по такой логике человек и правда царь животных. ведь эта штука в голове отрастила себе руки и ноги, чтобы всех порабощать) и дополнительный слой коры, чтобы.. больше переживать о всякой фигне?)

Ответить
Развернуть ветку
Антошка Гармошка

Да, я это захотел написать, потому что импульс побудил. Были бы люди более натренированы не отвечать на все комменты - не побудило бы. Вот эта возможность выбора - и пруф сознания, что нет внутри мозга еще чего-то сверхъестественного

Ответить
Развернуть ветку
Max Payne

вы не делаете выбор отвечать или не отвечать. яж вам говорю - к вам из глубин мозга приходит уже готовое решение, т.е. вы не могли мне не ответить физически, т.к. решение принимали не "вы".

Ответить
Развернуть ветку
Антошка Гармошка

Почему не делаю выбор? Я всегда делаю выбор. Тысячи комментаторов прошли мимо и сделали выбор не писать вам, потому что будут думать, что тратят время. Я думаю то же самое, но решил ответить.

Суть не в том, что нет выбора(он как раз есть), а в том, что вы кота за яйца тянете, приписывая предикативы и установки предыдущих своих действий, сохраненных в мозге, к выбору. А это уже грубейшая ошибка. Предикативы влияют на выбор в случае ультимативной ситуации или в случае решения по стереотипу, в остальных случаях человек спокойно опирается на контекст ситуации и только потом уже смотрит, что важнее - контекст или предикатив.

Ответить
Развернуть ветку
Антошка Гармошка

@TeamCar конечно же лучше знает, дружно минусанем и пройдем мимо:)

Ответить
Развернуть ветку
558 комментариев
Раскрывать всегда