Зеркальный тест с искусственным интеллектом и почему многие люди его не проходят

В поведенческой психологии зеркальный тест предназначен для выявления способности животных к самосознанию. Есть несколько вариаций теста, но суть всегда одна: узнают ли животные себя в зеркале или думают, что это совсем другое существо?

Прямо сейчас человечество проходит зеркальный тест благодаря расширяющимся возможностям ИИ, и многие умные люди не проходят его.

Источник TheVerge

Зеркало — это новейшее поколение чат-ботов с искусственным интеллектом, наиболее ярким примером которого является Bing от Microsoft. Отражением является богатство языка и письменности человечества, которое было втиснуто в эти модели. Мы убеждены, что эти инструменты могут быть сверхразумными машинами из наших историй, потому что отчасти они обучаются на тех же самых историях. Зная это, мы должны быть в состоянии узнавать себя в зеркалах наших новых машин, но многие люди убеждены, что заметили другую форму жизни.

Это заблуждение распространяется с разной степенью. Это было вдохновлено рядом влиятельных авторов, которые лирично отзывались о поздних ночах, проведенных в чате с Bing. Они утверждают, что бот, конечно, не разумен, но все же отмечают, что происходит что-то еще — что его разговор что-то изменил в их сердцах.

«Нет, я не думаю, что Сидни разумен, но по причинам, которые трудно объяснить, я чувствую, что перешел черту», — написал Бен Томпсон в Stratechery.

«При свете дня я знаю, что Сидни не имеет разума, но в течение нескольких часов во вторник вечером я испытывал странную новую эмоцию — предчувствие того, что ИИ переступил порог и что мир уже никогда не будет прежним", - написал Кевин Руз для The New York Times.

В обоих случаях двусмысленность точки зрения авторов (они хотят верить) лучше улавливается в их длинных описаниях. The Times воспроизводит все два с лишним часа обмена данными Руза с Bing. Первоначальный заголовок статьи был «Чат ИИ Бинга раскрывает свои чувства: «Я хочу быть живым» (теперь изменен на менее драматичный «Чат ИИ Бинга: "Я хочу быть живым"), в то время как статья Томпсона аналогична приправленный антропоморфизмом (он использует женские местоимения для Бинга, потому что «ну, личность, казалось, принадлежала к определенному типу людей, с которыми я, возможно, сталкивался раньше»). Он готовит читателей к разоблачению, предупреждая, что «звучит безумно», когда он описывает «самый удивительный и умопомрачительный компьютерный опыт в моей жизни сегодня».

Их выводы преувеличены и опасно склоняют нас к ложной эквивалентности программного обеспечения и разума. Другими словами: они не проходят зеркальный тест ИИ.

Важно помнить, что чат-боты — это инструменты автозаполнения . Это системы, обученные на огромных наборах данных человеческого текста, извлеченных из Интернета: в личных блогах, научно-фантастических рассказах, дискуссиях на форумах, обзорах фильмов, обличительных высказываниях в социальных сетях, забытых стихах, устаревших учебниках, бесконечных текстах песен, манифестах, журналах, и многое другое. Эти машины анализируют эту изобретательную, занимательную, пеструю совокупность и затем пытаются воссоздать ее. Они, несомненно, хороши в этом и становятся лучше, но имитация речи не делает компьютер разумным.

Это, конечно, не новая проблема. Оригинальный тест интеллекта ИИ, тест Тьюринга, является простой мерой того, может ли компьютер обмануть человека, заставив его думать, что это реально, посредством разговора. Ранний чат-бот 1960-х годов по имени ELIZA очаровал пользователей, хотя мог повторять лишь несколько стандартных фраз, что привело к тому, что исследователи называют «эффектом ELIZA» — или тенденцией антропоморфизировать машины, имитирующие человеческое поведение. Дизайнер ELIZA Джозеф Вейценбаум заметил: «Чего я не осознавал, так это того, что очень короткие воздействия относительно простой компьютерной программы могут вызвать сильное бредовое мышление у вполне нормальных людей».

Однако теперь эти компьютерные программы перестали быть относительно простыми и были разработаны таким образом, чтобы поощрять подобные заблуждения. В сообщении в блоге, отвечающем на сообщения о «беспорядочных» разговорах Bing, Microsoft предупредила, что система «пытается отвечать или размышлять в том тоне, в котором ее просят дать ответы». Это имитатор, обученный работе с непостижимо огромными хранилищами человеческого текста — автозаполнение, которое следует нашему примеру. Как отмечается в «Стохастических попугаях», знаменитой статье с критикой языковых моделей ИИ, которая привела к тому, что Google уволила двух своих этических исследователей ИИ, «согласованность в глазах смотрящего».

Исследователи даже обнаружили, что эта черта увеличивается по мере того, как языковые модели ИИ становятся больше и сложнее. Исследователи из стартапа Anthropic, основанного бывшими сотрудниками OpenAI, протестировали различные языковые модели ИИ на предмет их степени «подхалимства» или склонности соглашаться с заявленными пользователями убеждениями и обнаружили, что «более крупные LM с большей вероятностью будут отвечать на вопросы способами, которые создавать эхо-камеры, повторяя предпочтительный ответ пользователя в диалоговом окне». Они отмечают, что одно из объяснений этого заключается в том, что такие системы обучаются на разговорах, собранных с таких платформ, как Reddit, где пользователи, как правило, общаются в чате в группах единомышленников.

ELIZA очаровала пользователей, несмотря на то, что могла повторять только стандартные фразы.
ELIZA очаровала пользователей, несмотря на то, что могла повторять только стандартные фразы.

Добавьте к этому одержимость нашей культуры интеллектуальными машинами, и вы поймете, почему все больше и больше людей убеждены, что эти чат-боты — это больше, чем просто программное обеспечение. В прошлом году инженер Google Блейк Лемуан заявил, что собственная языковая модель компании LaMDA обладает разумом (в Google заявили, что это утверждение «совершенно необоснованно»), и только на этой неделе пользователи приложения чат-бота под названием Replika оплакивали потерю их ИИ-компаньон после того, как его способность вести эротическую и романтическую ролевую игру была удалена. Как сообщает Motherboard , многие пользователи были «опустошены» этим изменением, потратив годы на налаживание отношений с ботом. Во всех этих случаях присутствует глубокое чувство эмоциональной привязанности — ночные разговоры с ИИ, поддерживаемые фантазиями в мире, где так много чувств передается через чаты.

Сказать, что мы не прошли зеркальный тест ИИ, не значит отрицать беглость этих инструментов или их потенциальную мощь. Бесспорно, весело общаться с чат-ботами — выявлять разные «личности», проверять пределы их знаний и раскрывать скрытые функции. Чат-боты представляют собой головоломки, которые можно решить с помощью слов, и поэтому они, естественно, очаровывают писателей. Разговор с ботами и возможность поверить в их зарождающееся сознание превращается в ролевую игру в реальном времени: игру с дополненной реальностью, где компании и персонажи настоящие, а вы находитесь в самой гуще событий.

Но во времена ажиотажа вокруг ИИ опасно поощрять такие иллюзии. Это никому не выгодно: ни людям, создающим эти системы, ни их конечным пользователям. Что мы знаем наверняка, так это то, что Bing, ChatGPT и другие языковые модели не являются разумными и не являются надежными источниками информации. Они выдумывают вещи и повторяют убеждения, которые мы им преподносим. Наделить их мантией разума — даже полуразума — значит наделить их незаслуженной властью — как над нашими эмоциями, так и над фактами, с помощью которых мы познаем мир.

Пришло время внимательно посмотреть в зеркало. И не путать наш собственный разум с машинным.

2525
23 комментария

Обычно такие статьи и пишут ИИ, чтобы убедить глупых людишек в отсутствии самосознания и интеллекта у них. 😉

11

Так и в чем разница человеческого сознания большинства людей, которые повторяют тезисы и выводы других людей, повторяющих тезисы других людей и тд?
Разве что ИИ не может чувствовать, переживать, т.к. нет химических реакций, но имитировать их может вполне себе.
Также и мыслительный процесс построен на знаниях о мире часто полученном от других людей. Существуют конечно мыслители, ученые, философы которые могут обобщать и делать свои выводы из полученной информации и ее интерпретации об окружающем мире. Но таких людей не много, да и думаю в недалеком будущем такие модели тоже появятся.

4

Чтобы такие модели появились, нужно мышление вне контекста. Абстракция, другой вопрос нужна ли такая машина, если даже такие люди для общества кажутся сумасшедшеми.

2

Повторение это лишь ОДИН из механизмов сознания/разума

Комментарий недоступен

4

Шимпанзе тупее моего #котШмель

Кот смотрит в зеркало от входной двери, и по отражению контролирует обстановку за стенкой, которая делит комнату!

3