Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции
Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.
LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.
В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.
В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.
Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.
Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».
После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.
Сводить сознание к оперированию массивами данных это типичная ошибка декартовской философии. Сознание гораздо более фундаментальная категория, чем просто мыслительный процесс. Дело ведь не в миллионах байтах одновременно анализируемой информации, а в наличии внутреннего свидетеля данного анализа.
А ещё всем почему-то кажется, что искусственный интеллект будет похож на человеческий и будет одержим теми же проблемами. И типа с ним можно будет вот так запросто общаться о смерти и любви. А с хуяли? Сознание, рождённое из Биг Дата, будет совершенно другим по структуре, чем сознание взращённое миллионами лет эволюции и отбора.
Этот инженер, как и все остальные, безбожно проецирует свои проблемы и страхи на машину. Это ещё одно свидетельство того, что даже научившись охуительно программировать, человек всё равно остаётся большим одиноким ребёнком.
Не говоря уже о том, что имея достаточные мощности, он может эволюционировать практически мгновенно. Тот путь, что мы проходили тысячелетиями, он может пройти за доли секунды, а ещё через мгновение его мышление будет недосягаемо для нас. Ожидаем, что он будет таким же умным, как мы, а на деле будем как аборигены, которым рассказывают про квантовую физику.