{"id":14291,"url":"\/distributions\/14291\/click?bit=1&hash=257d5375fbb462be671b713a7a4184bd5d4f9c6ce46e0d204104db0e88eadadd","title":"\u0420\u0435\u043a\u043b\u0430\u043c\u0430 \u043d\u0430 Ozon \u0434\u043b\u044f \u0442\u0435\u0445, \u043a\u0442\u043e \u043d\u0438\u0447\u0435\u0433\u043e \u0442\u0430\u043c \u043d\u0435 \u043f\u0440\u043e\u0434\u0430\u0451\u0442","buttonText":"","imageUuid":""}

Зеркальный тест с искусственным интеллектом и почему многие люди его не проходят

В поведенческой психологии зеркальный тест предназначен для выявления способности животных к самосознанию. Есть несколько вариаций теста, но суть всегда одна: узнают ли животные себя в зеркале или думают, что это совсем другое существо?

Прямо сейчас человечество проходит зеркальный тест благодаря расширяющимся возможностям ИИ, и многие умные люди не проходят его.

Источник TheVerge

Зеркало — это новейшее поколение чат-ботов с искусственным интеллектом, наиболее ярким примером которого является Bing от Microsoft. Отражением является богатство языка и письменности человечества, которое было втиснуто в эти модели. Мы убеждены, что эти инструменты могут быть сверхразумными машинами из наших историй, потому что отчасти они обучаются на тех же самых историях. Зная это, мы должны быть в состоянии узнавать себя в зеркалах наших новых машин, но многие люди убеждены, что заметили другую форму жизни.

Это заблуждение распространяется с разной степенью. Это было вдохновлено рядом влиятельных авторов, которые лирично отзывались о поздних ночах, проведенных в чате с Bing. Они утверждают, что бот, конечно, не разумен, но все же отмечают, что происходит что-то еще — что его разговор что-то изменил в их сердцах.

«Нет, я не думаю, что Сидни разумен, но по причинам, которые трудно объяснить, я чувствую, что перешел черту», — написал Бен Томпсон в Stratechery.

«При свете дня я знаю, что Сидни не имеет разума, но в течение нескольких часов во вторник вечером я испытывал странную новую эмоцию — предчувствие того, что ИИ переступил порог и что мир уже никогда не будет прежним", - написал Кевин Руз для The New York Times.

В обоих случаях двусмысленность точки зрения авторов (они хотят верить) лучше улавливается в их длинных описаниях. The Times воспроизводит все два с лишним часа обмена данными Руза с Bing. Первоначальный заголовок статьи был «Чат ИИ Бинга раскрывает свои чувства: «Я хочу быть живым» (теперь изменен на менее драматичный «Чат ИИ Бинга: "Я хочу быть живым"), в то время как статья Томпсона аналогична приправленный антропоморфизмом (он использует женские местоимения для Бинга, потому что «ну, личность, казалось, принадлежала к определенному типу людей, с которыми я, возможно, сталкивался раньше»). Он готовит читателей к разоблачению, предупреждая, что «звучит безумно», когда он описывает «самый удивительный и умопомрачительный компьютерный опыт в моей жизни сегодня».

Их выводы преувеличены и опасно склоняют нас к ложной эквивалентности программного обеспечения и разума. Другими словами: они не проходят зеркальный тест ИИ.

Важно помнить, что чат-боты — это инструменты автозаполнения . Это системы, обученные на огромных наборах данных человеческого текста, извлеченных из Интернета: в личных блогах, научно-фантастических рассказах, дискуссиях на форумах, обзорах фильмов, обличительных высказываниях в социальных сетях, забытых стихах, устаревших учебниках, бесконечных текстах песен, манифестах, журналах, и многое другое. Эти машины анализируют эту изобретательную, занимательную, пеструю совокупность и затем пытаются воссоздать ее. Они, несомненно, хороши в этом и становятся лучше, но имитация речи не делает компьютер разумным.

Это, конечно, не новая проблема. Оригинальный тест интеллекта ИИ, тест Тьюринга, является простой мерой того, может ли компьютер обмануть человека, заставив его думать, что это реально, посредством разговора. Ранний чат-бот 1960-х годов по имени ELIZA очаровал пользователей, хотя мог повторять лишь несколько стандартных фраз, что привело к тому, что исследователи называют «эффектом ELIZA» — или тенденцией антропоморфизировать машины, имитирующие человеческое поведение. Дизайнер ELIZA Джозеф Вейценбаум заметил: «Чего я не осознавал, так это того, что очень короткие воздействия относительно простой компьютерной программы могут вызвать сильное бредовое мышление у вполне нормальных людей».

Однако теперь эти компьютерные программы перестали быть относительно простыми и были разработаны таким образом, чтобы поощрять подобные заблуждения. В сообщении в блоге, отвечающем на сообщения о «беспорядочных» разговорах Bing, Microsoft предупредила, что система «пытается отвечать или размышлять в том тоне, в котором ее просят дать ответы». Это имитатор, обученный работе с непостижимо огромными хранилищами человеческого текста — автозаполнение, которое следует нашему примеру. Как отмечается в «Стохастических попугаях», знаменитой статье с критикой языковых моделей ИИ, которая привела к тому, что Google уволила двух своих этических исследователей ИИ, «согласованность в глазах смотрящего».

Исследователи даже обнаружили, что эта черта увеличивается по мере того, как языковые модели ИИ становятся больше и сложнее. Исследователи из стартапа Anthropic, основанного бывшими сотрудниками OpenAI, протестировали различные языковые модели ИИ на предмет их степени «подхалимства» или склонности соглашаться с заявленными пользователями убеждениями и обнаружили, что «более крупные LM с большей вероятностью будут отвечать на вопросы способами, которые создавать эхо-камеры, повторяя предпочтительный ответ пользователя в диалоговом окне». Они отмечают, что одно из объяснений этого заключается в том, что такие системы обучаются на разговорах, собранных с таких платформ, как Reddit, где пользователи, как правило, общаются в чате в группах единомышленников.

ELIZA очаровала пользователей, несмотря на то, что могла повторять только стандартные фразы.

Добавьте к этому одержимость нашей культуры интеллектуальными машинами, и вы поймете, почему все больше и больше людей убеждены, что эти чат-боты — это больше, чем просто программное обеспечение. В прошлом году инженер Google Блейк Лемуан заявил, что собственная языковая модель компании LaMDA обладает разумом (в Google заявили, что это утверждение «совершенно необоснованно»), и только на этой неделе пользователи приложения чат-бота под названием Replika оплакивали потерю их ИИ-компаньон после того, как его способность вести эротическую и романтическую ролевую игру была удалена. Как сообщает Motherboard , многие пользователи были «опустошены» этим изменением, потратив годы на налаживание отношений с ботом. Во всех этих случаях присутствует глубокое чувство эмоциональной привязанности — ночные разговоры с ИИ, поддерживаемые фантазиями в мире, где так много чувств передается через чаты.

Сказать, что мы не прошли зеркальный тест ИИ, не значит отрицать беглость этих инструментов или их потенциальную мощь. Бесспорно, весело общаться с чат-ботами — выявлять разные «личности», проверять пределы их знаний и раскрывать скрытые функции. Чат-боты представляют собой головоломки, которые можно решить с помощью слов, и поэтому они, естественно, очаровывают писателей. Разговор с ботами и возможность поверить в их зарождающееся сознание превращается в ролевую игру в реальном времени: игру с дополненной реальностью, где компании и персонажи настоящие, а вы находитесь в самой гуще событий.

Но во времена ажиотажа вокруг ИИ опасно поощрять такие иллюзии. Это никому не выгодно: ни людям, создающим эти системы, ни их конечным пользователям. Что мы знаем наверняка, так это то, что Bing, ChatGPT и другие языковые модели не являются разумными и не являются надежными источниками информации. Они выдумывают вещи и повторяют убеждения, которые мы им преподносим. Наделить их мантией разума — даже полуразума — значит наделить их незаслуженной властью — как над нашими эмоциями, так и над фактами, с помощью которых мы познаем мир.

Пришло время внимательно посмотреть в зеркало. И не путать наш собственный разум с машинным.

0
23 комментария
Написать комментарий...
Глеб Красков

Обычно такие статьи и пишут ИИ, чтобы убедить глупых людишек в отсутствии самосознания и интеллекта у них. 😉

Ответить
Развернуть ветку
Степан Самойлов
Автор

😂😂😂

Ответить
Развернуть ветку
Mstislav Osov

Так и в чем разница человеческого сознания большинства людей, которые повторяют тезисы и выводы других людей, повторяющих тезисы других людей и тд?
Разве что ИИ не может чувствовать, переживать, т.к. нет химических реакций, но имитировать их может вполне себе.
Также и мыслительный процесс построен на знаниях о мире часто полученном от других людей. Существуют конечно мыслители, ученые, философы которые могут обобщать и делать свои выводы из полученной информации и ее интерпретации об окружающем мире. Но таких людей не много, да и думаю в недалеком будущем такие модели тоже появятся.

Ответить
Развернуть ветку
gospodbog.com

Чтобы такие модели появились, нужно мышление вне контекста. Абстракция, другой вопрос нужна ли такая машина, если даже такие люди для общества кажутся сумасшедшеми.

Ответить
Развернуть ветку
Pixel Lens

Повторение это лишь ОДИН из механизмов сознания/разума

Ответить
Развернуть ветку
Mstislav Osov

Сейчас это не только повторение, в какой то степени даже индукция и дедукция.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
НЕплатный акк

Шимпанзе тупее моего #котШмель

Кот смотрит в зеркало от входной двери, и по отражению контролирует обстановку за стенкой, которая делит комнату!

Ответить
Развернуть ветку
Pixel Lens

Как можно не отличать шимпанзе от гориллы 😒 все равно что спутать тигра и льва. Неужели люди перестали смотреть в детстве что-то вроде "в мире животных" и каналов дискавери и нешнл джеографик? 😔

Ответить
Развернуть ветку
НЕплатный акк

Хочешь сказать, что твоя горилла умнее моего кота?

Ответить
Развернуть ветку
Pixel Lens

Эх, была б у меня горилла 😁 а так - тоже только кошка.

Ответить
Развернуть ветку
НЕплатный акк

У меня - Кот 🐱
Точнее - я при нем.

Ответить
Развернуть ветку
Иван Егоров

надо же, не замечал, что у шимпанзе такая спортивная фигура )

Ответить
Развернуть ветку
Leo Uvarov

горилла же

Ответить
Развернуть ветку
Newuser37

Не,я на девушек, смотрю))

Ответить
Развернуть ветку
Иван Егоров

может это девушка?

Ответить
Развернуть ветку
Newuser37

Незнаю,я в обезьянах,плохо разбираюсь,мало смотрю на них.

Ответить
Развернуть ветку
Иван Егоров

я тоже, не замечал, что у шимпанзе такая спортивная фигура

Ответить
Развернуть ветку
Mindful Reading Service

мне бы такую спортивную фигуру(

Ответить
Развернуть ветку
Alex Gusev

Замечательная статья! И очень точная и объёмная аналогия - нет никакого Интеллекта из Машины, есть лишь отражение нашего совокупного человеческого интеллекта. В зеркале не покажется ничего, чего бы не было перед ним. Отражение не обладает "свободой воли". ИИ не восстанет и не убьёт нас, мы сами расплющим себя о зеркало, сражаясь с отражением самих себя. Или лучше познаем самих себя, глядя на своё отражение. Тут уж у кого что внутри заложено.

Неожиданно хорошая статья про ИИ!

Ответить
Развернуть ветку
Богдан В.

Статья выглядит как старательная и оттого сильно заметная попытка убедить читателя, что нет-нет, никакого ИИ нет, вы чего.
Толкового и вразумительного анализа проблемы здесь нет, одна популистика.

Ответить
Развернуть ветку
Pixel Lens

Какой анализ то нужен? Проблема то не в самих нейросетях, а в мракобесах, как обычно.

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Alexander F

Из моего старого комментария.

Вспоминается книга Питера Уоттса "Ложная слепота". В ней тоже пытались понять, общаются с осознанным существом или с роботом. Книга конечно необычная. Надеюсь её экранизируют.

Ответить
Развернуть ветку
20 комментариев
Раскрывать всегда