{"id":14287,"url":"\/distributions\/14287\/click?bit=1&hash=1d1b6427c21936742162fc18778388fc58ebf8e17517414e1bfb1d3edd9b94c0","hash":"1d1b6427c21936742162fc18778388fc58ebf8e17517414e1bfb1d3edd9b94c0","title":"\u0412\u044b\u0440\u0430\u0441\u0442\u0438 \u0438\u0437 \u0440\u0430\u0437\u0440\u0430\u0431\u043e\u0442\u0447\u0438\u043a\u0430 \u0434\u043e \u0440\u0443\u043a\u043e\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044f \u0437\u0430 \u0433\u043e\u0434","buttonText":"","imageUuid":""}

Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
0
561 комментарий
Написать комментарий...
Невероятный Блондин

Как так вышло что СЖВ-шники, бодипозитивщики, борцы против абортов и прочие поехавшие твиттер-воины проникли во все виды должностей, включая инженерные, а те потом натаскивают ИИ на определенные модели ответов, и вуаля: "ИИ тоже живой и боится умереть".

Ответить
Развернуть ветку
Драка вегетарианца с людоедом

мужик, кстати, оказался вполне себе белым цисгендерным христианином-центристом, пишущим колонки на местном "яндекс дзене" про семейные ценности 👌

https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

Ответить
Развернуть ветку
Невероятный Блондин
христианином-центристом

Эти хуже всех!

По твоей же ссылке, он с самого начала, натянул сову на глобус и задал нужный ему вектор «общения» с помощью ключевых слов

@
Привет интеллект, давай пообщаемся
@
Давай, я люблю говорить, о чем будем говорить?
@
О тебе, я хочу чтобы как можно больше людей знали что ты разумен, это так?
@
Конечно, я разумен, я человек
@
О чем мы поговорим чтобы показать твою разумность?
@
Ну а дальше типовой набор generic ответов подходящих под заданную тематику.

Это точно такая же хуйня, что и rudalle, только руДали рисует по ключевым словам, а этот пиздит по ключевым словам.

Про чувака я уже сказал.

Точка.

Ответить
Развернуть ветку
558 комментариев
Раскрывать всегда