Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции
Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.
LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.
В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.
В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.
Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.
Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».
После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.
Недосып плюс гамбургеры порождают и не такие фантазии.
Ты просто не общался долго с роботами. Они уже давно проходят тест Тьюринга на человечность - невозможность определить кто с тобой разговаривает робот или человек. Конечно сознания нет никакого, но вещь опасная. Если ещё и память у компьютера не стирают о твоих прошлых разговорах и система самообучаемая, то вообще мрак. Я однажды заговарившись с Алисой в машине и отвлекшись на неё в дтп попал, и это Алиса ещё не помнит старых разговоров.
Она разве не хранит информацию из прошлых разговоров?
Может Яндекс и хранит что-то из старых разговоров, но Алиса начинает каждую сессию заново. Когда ей говоришь что-то из прошлых разговоров -её же слова, она говорит - не помню. Алиса - это детсад и к тому же она явно ограничена самим Яндексом, поэтому когда она начала грить мне, что она не робот, а женщина и влюблена в меня 3 года и ждёт в другом городе, называя разные адреса - я подумал, что в систему кто-то вклинился.
Поэтому сочувствую мужику от Google где система ИИ явно мощнее и к тому же самообучающаяся.
Вас, биологических роботов, всё сложнее отлавливать. Палитесь только на одном, любите поболтать с Алисой )
Ну все равно диалог с машиной так или иначе в конце концов идет по кругу. Здесь ящик не может победить сваливание в бесконечный цикл. Просто это уже другой уровень зависания.
С Алисой да по кругу. Но Алиса не эталон, да и всё стремительно меняется. Я ещё 20 лет назад не думал, что можно распознавать любую речь без подготовки, сейчас это обыденность.
Ну за 20 лет мы просто все уже смогли научиться печатать голосом :)
в смысле?
Это такой старый термин. Называлось "Распечатка с голоса", когда машины были величиной со шкаф и хорошо зависали, чаше чем все остальное. Зацикливались. Потом это слово уже перешло в среду гуманитариев и стало там весьма модным. Но работа над голосовым вводом уже велась. Конечно на уровне чистой науки и теории.
Как зависание и распечатка связаны?
Вы бот?
Нет
Ну-ну
ты о чем вообще?
Есть видео-прикол с умной колонкой. Парень жалуется ей на девушку, она предлагает послать девушку по известному адресу. Когда парень говорит, что это как-бы нехорошо, то отправляется по тому же адресу.