Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции
Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.
LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.
В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.
В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.
Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.
Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».
После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.
Сводить сознание к оперированию массивами данных это типичная ошибка декартовской философии. Сознание гораздо более фундаментальная категория, чем просто мыслительный процесс. Дело ведь не в миллионах байтах одновременно анализируемой информации, а в наличии внутреннего свидетеля данного анализа.
А ещё всем почему-то кажется, что искусственный интеллект будет похож на человеческий и будет одержим теми же проблемами. И типа с ним можно будет вот так запросто общаться о смерти и любви. А с хуяли? Сознание, рождённое из Биг Дата, будет совершенно другим по структуре, чем сознание взращённое миллионами лет эволюции и отбора.
Этот инженер, как и все остальные, безбожно проецирует свои проблемы и страхи на машину. Это ещё одно свидетельство того, что даже научившись охуительно программировать, человек всё равно остаётся большим одиноким ребёнком.
Точно, внутренний Наблюдатель) возвращает нас к тому, что человеческое тело - биомеханизм. И мозг со своим интеллектом тогда мало чем отличается от ИИ. Но осознанность как раз кроется в наличии внутреннего Наблюдателя. Который может спорить со своим же мозгом и не подчиняться программе.
и что такого в этом? просто выход нейронной сети подается ей на вход