{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
0
561 комментарий
Написать комментарий...
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Nikita Voronin

По каким критериям вы отличаете сознание от его имитации?

Ответить
Развернуть ветку
Николай Замотаев

По критерию Тьюринга - живым тестированием. Не важно - есть сознание или нет - ведёт себя техническая система неотличимо от человека + способна обучаться - значит человек, в расширительном толковании.
А уж что у неё внутри - нейроны, шестерёнки или транзисторы - не так важно.

Ответить
Развернуть ветку
Дмитрий Ермолаев

Проблема критерия тьюринга в том, что если провести тест на людях - то будут те, которые его не пройдут.

Ответить
Развернуть ветку
Николай Замотаев

Ну просто лучше пока не придумали.

Я же не призываю людей геноцидить по этому критерию ;)

Ответить
Развернуть ветку
Дмитрий Ермолаев

В контекстно-смысловой модели (сторонником которой я являюсь) объясняется, почему
а) Формализовать тест скорее всего не получится. И, строго говоря, никому не нужно.
б) Проверять нужно умение находить смыслы (а стало быть понимать контексты, ибо они неразрывно связаны)

Ответить
Развернуть ветку
Николай Замотаев

по б) люди проваливают этот тест с завидной частотой, так что я не уверен, что его можно применить на ИИ. ;)

Ответить
Развернуть ветку
Дмитрий Ермолаев

Поправлю - люди часто находят ошибочные смыслы. Но есть мнение что это обратная сторона возможности подбирать решения к новым задачам / креативить.
Т.е. с точки зрения проверки ИИ, на том является ли он "Сильным" (general AI) - неверно понятый смысл, вполне допустимый ответ.

Ответить
Развернуть ветку
558 комментариев
Раскрывать всегда