Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
Блейк Леймон, фото Washington Post
250250
561 комментарий

Комментарий недоступен

208

Я знаю людей, которые тоже имитируют диалог)

449

Люди - тоже просто куски мяса с кучей нейронов. Получили что-то на вход, выдали какой-то сигнал.

Тут уж как посмотреть.

190

Точно так же можно описать процессы, происходящие в мозгу человека. У каждого нейрона на входе несколько дендритов, на выходе — аксон. Мы точно знаем, что один нейрон сознанием не обладает, а мозг из 86 млрд нейронов его имеет. Когда именно появляется сознание, мы так и не установили.

114

Как говорил один мой препод в институте, человек - это просто передаточная функция, на входе сигналы а на выходе говно

51

Если имитация станет неотличимой от реальности, то какая в сущности разница

35

Инженеру можно лишь посоветовать статьи по трансформерам и NLP почитать чтобы понять как это работает

Лол, этот "Инженер" senior из гугла и как раз специализируется на NLP, думается ему ваши советы не очень нужны )) https://research.google/people/106471/

И кстати, это не первый. Blaise Agüera y Arcas (https://en.wikipedia.org/wiki/Blaise_Ag%C3%BCera_y_Arcas) так же работающий с LaMDA утверждает тоже самое - LaMDA очень близка к обретению сознания.

34