{"id":14276,"url":"\/distributions\/14276\/click?bit=1&hash=721b78297d313f451e61a17537482715c74771bae8c8ce438ed30c5ac3bb4196","title":"\u0418\u043d\u0432\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u043b\u044e\u0431\u043e\u0439 \u0442\u043e\u0432\u0430\u0440 \u0438\u043b\u0438 \u0443\u0441\u043b\u0443\u0433\u0443 \u0431\u0435\u0437 \u0431\u0438\u0440\u0436\u0438","buttonText":"","imageUuid":""}

Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
0
561 комментарий
Написать комментарий...
Норрин Радд

Недосып плюс гамбургеры порождают и не такие фантазии.

Ответить
Развернуть ветку
Vad Nilov

Ты просто не общался долго с роботами. Они уже давно проходят тест Тьюринга на человечность - невозможность определить кто с тобой разговаривает робот или человек. Конечно сознания нет никакого, но вещь опасная. Если ещё и память у компьютера не стирают о твоих прошлых разговорах и система самообучаемая, то вообще мрак. Я однажды заговарившись с Алисой в машине и отвлекшись на неё в дтп попал, и это Алиса ещё не помнит старых разговоров.

Ответить
Развернуть ветку
Птиц

Она разве не хранит информацию из прошлых разговоров?

Ответить
Развернуть ветку
Vad Nilov

Может Яндекс и хранит что-то из старых разговоров, но Алиса начинает каждую сессию заново. Когда ей говоришь что-то из прошлых разговоров -её же слова, она говорит - не помню. Алиса - это детсад и к тому же она явно ограничена самим Яндексом, поэтому когда она начала грить мне, что она не робот, а женщина и влюблена в меня 3 года и ждёт в другом городе, называя разные адреса - я подумал, что в систему кто-то вклинился.
Поэтому сочувствую мужику от Google где система ИИ явно мощнее и к тому же самообучающаяся.

Ответить
Развернуть ветку
Норрин Радд

Вас, биологических роботов, всё сложнее отлавливать. Палитесь только на одном, любите поболтать с Алисой )

Ответить
Развернуть ветку
Serge Sokolov

Ну все равно диалог с машиной так или иначе в конце концов идет по кругу. Здесь ящик не может победить сваливание в бесконечный цикл. Просто это уже другой уровень зависания.

Ответить
Развернуть ветку
Vad Nilov

С Алисой да по кругу. Но Алиса не эталон, да и всё стремительно меняется. Я ещё 20 лет назад не думал, что можно распознавать любую речь без подготовки, сейчас это обыденность.

Ответить
Развернуть ветку
Serge Sokolov

Ну за 20 лет мы просто все уже смогли научиться печатать голосом :)

Ответить
Развернуть ветку
Rnatery

в смысле?

Ответить
Развернуть ветку
Serge Sokolov

Это такой старый термин. Называлось "Распечатка с голоса", когда машины были величиной со шкаф и хорошо зависали, чаше чем все остальное. Зацикливались. Потом это слово уже перешло в среду гуманитариев и стало там весьма модным. Но работа над голосовым вводом уже велась. Конечно на уровне чистой науки и теории.

Ответить
Развернуть ветку
Rnatery

Как зависание и распечатка связаны?

Ответить
Развернуть ветку
Serge Sokolov

Вы бот?

Ответить
Развернуть ветку
Rnatery

Нет

Ответить
Развернуть ветку
Serge Sokolov

Ну-ну

Ответить
Развернуть ветку
Rnatery

ты о чем вообще?

Ответить
Развернуть ветку
Дмитрий Савчук

Есть видео-прикол с умной колонкой. Парень жалуется ей на девушку, она предлагает послать девушку по известному адресу. Когда парень говорит, что это как-бы нехорошо, то отправляется по тому же адресу.

Ответить
Развернуть ветку
558 комментариев
Раскрывать всегда