Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции
Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.
LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.
В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.
В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.
Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.
Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».
После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.
Мне кажется, что есть разница между 3 летним ребёнком и системой прочитавшей весь интернет и скушавшей Терра джоули на обучение себя
Если правда,оно будет учиться,как ребёнок,в идеале ИИ так и должен развиваться.
У ии принципиально не может быть человеческого сознания.
Кроме этого, ии доступны все человеческие знания, которые он может обработать быстрее, чем мы можем представить.
Поэтому то, что нам кажется сознанием ребёнка может быть либо обманом нас ии, либо просто одной из форм нечеловеческого сознания, которое мы можем воспринимать как детское.
Зы на самом деле проблема намного глубже, чем то, что написано в новости и всеми обсуждается.
Все там можно вырастить,главное стараться.
Для меня, наверное, доказательством сознания будет умение этой фиговины 100% решать вопросы которых она раньше не видела. Ну типа всяких головоломок итп, без специального модуля перебора.
Все что можно отнести к чистому знанию, наверное, оно может.
Головоломки так же легко решаются, когда есть способ. Скормить ии ТРИЗ - и я даже не хочу представлять, что будет дальше.))
А ты то сам на такое способен?
Я очень сомневаюсь, что ты сможешь решить такую задачу, тип которой ты ранее не встречал. Особенно без перебора.
Более того, это довольно сложно даже придумать задачу, тип которой заранее большинству людей не встречался.
Пожалуйста, задачка. Попробуйте представить, как бы выглядело 4-х-мерное пространство.