Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции
Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.
LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.
В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.
В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.
Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.
Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».
После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.
Комментарий недоступен
Точно так же можно описать процессы, происходящие в мозгу человека. У каждого нейрона на входе несколько дендритов, на выходе — аксон. Мы точно знаем, что один нейрон сознанием не обладает, а мозг из 86 млрд нейронов его имеет. Когда именно появляется сознание, мы так и не установили.
Верю в то, что мозг - просто вычислительная машина, а сознание это - вы, и вы не в мозге.
А тогда «вы» — это что такое и что физически отвечает за «вы»?
Вы это общее сознание, общая матрица. А мозг (человек) это угол зрения на бытие (матрица, сознание и.д.).
Вместе мы (вы, я, есть одно и тоже) являемся мощным интеллектом двигающим прогресс вперёд, по одиночке же мы видим слишком мало (мало углов зрения, малый взгляд на матрицу, мало информации)
В своей основе бытие - это матрица возможных состояний. Интеллект развивался и устанавливал вокруг реальность из возможности, чем сильнее и сложнее интелект развеивался, тем более сложную модель мира он вокруг себя строил.
Процесс самопознания идёт…
На мой взгляд машина ни когда станет человеком в сути своей.
Она может быть как человек, можно даже будет прожить рядом с машиной и не понять что это не человек всю свою жизнь. Но это будет всего лишь искусная имитация жизни.
Даже из того что мы видим человек очень сложно устроен, а мы видим ещё очень мало и ограниченно
На самом деле, у вас нет никаких доказателств, что и люди, которые вас окружают, имеют сознание. Чтобы утверждать, что создание ИИ будет всего лишь искусная имитация жизни (без сознания), вы должны знать, в результате чего возникает сознание, а этого пока не знает никто.