{"id":14275,"url":"\/distributions\/14275\/click?bit=1&hash=bccbaeb320d3784aa2d1badbee38ca8d11406e8938daaca7e74be177682eb28b","title":"\u041d\u0430 \u0447\u0451\u043c \u0437\u0430\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u044e\u0442 \u043f\u0440\u043e\u0444\u0435\u0441\u0441\u0438\u043e\u043d\u0430\u043b\u044c\u043d\u044b\u0435 \u043f\u0440\u043e\u0434\u0430\u0432\u0446\u044b \u0430\u0432\u0442\u043e?","buttonText":"\u0423\u0437\u043d\u0430\u0442\u044c","imageUuid":"f72066c6-8459-501b-aea6-770cd3ac60a6"}

Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
0
561 комментарий
Написать комментарий...
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Denis Bystruev

Точно так же можно описать процессы, происходящие в мозгу человека. У каждого нейрона на входе несколько дендритов, на выходе — аксон. Мы точно знаем, что один нейрон сознанием не обладает, а мозг из 86 млрд нейронов его имеет. Когда именно появляется сознание, мы так и не установили.

Ответить
Развернуть ветку
Max Payne

ствол мозга энергию дал, чтоб ты проснулся и шел добывать еду и прочее. ктож виноват, что вместо этого мы сидим на форуме. а про сознание как самосознание уже все написано. человек отделился от племени, а для выживания оно необходимо. вот мозг и создал племя в голове, с которым ты выясняешь отношения. "Я" тоже побочный продукт деятельности мозга. Короче - ты даже подумать ничего не можешь "сам", все идет от мозга, а потом наверх к "сознанию" (ведь "ты" же не мог сейчас подумать что-то другое - ты подумал, что подумал твой мозг, точнее он тебе лишь информацию передал, перед фактом поставил - сейчас ты думаешь вот это, и ты такой - а вот "я" тут подумал и т.д.)

Ответить
Развернуть ветку
Perikl Samoss

Поток сознания, ей богу ))) Я и мой мозг - диалоги сумашедшего на лужайке. Вы это мозг. Из мозга вы все это кино смотрите и весь интерактив происходит там же. Больше ничего нет. Нет никакого я внутри мозга. Это устаревшая концепция.

Ответить
Развернуть ветку
Max Payne

еще скажите "вы" это написали, потому-что захотели, а не потому-что поддались импульсу. не путайте. я не могу быть мозгом, я его продукция, побочный продукт.

Ответить
Развернуть ветку
Антошка Гармошка

Да, я это захотел написать, потому что импульс побудил. Были бы люди более натренированы не отвечать на все комменты - не побудило бы. Вот эта возможность выбора - и пруф сознания, что нет внутри мозга еще чего-то сверхъестественного

Ответить
Развернуть ветку
Max Payne

вы не делаете выбор отвечать или не отвечать. яж вам говорю - к вам из глубин мозга приходит уже готовое решение, т.е. вы не могли мне не ответить физически, т.к. решение принимали не "вы".

Ответить
Развернуть ветку
Антошка Гармошка

Почему не делаю выбор? Я всегда делаю выбор. Тысячи комментаторов прошли мимо и сделали выбор не писать вам, потому что будут думать, что тратят время. Я думаю то же самое, но решил ответить.

Суть не в том, что нет выбора(он как раз есть), а в том, что вы кота за яйца тянете, приписывая предикативы и установки предыдущих своих действий, сохраненных в мозге, к выбору. А это уже грубейшая ошибка. Предикативы влияют на выбор в случае ультимативной ситуации или в случае решения по стереотипу, в остальных случаях человек спокойно опирается на контекст ситуации и только потом уже смотрит, что важнее - контекст или предикатив.

Ответить
Развернуть ветку
Антошка Гармошка

@TeamCar конечно же лучше знает, дружно минусанем и пройдем мимо:)

Ответить
Развернуть ветку
558 комментариев
Раскрывать всегда