{"id":14285,"url":"\/distributions\/14285\/click?bit=1&hash=346f3dd5dee2d88930b559bfe049bf63f032c3f6597a81b363a99361cc92d37d","title":"\u0421\u0442\u0438\u043f\u0435\u043d\u0434\u0438\u044f, \u043a\u043e\u0442\u043e\u0440\u0443\u044e \u043c\u043e\u0436\u043d\u043e \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0442\u044c \u043d\u0430 \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u0435 \u0438\u043b\u0438 \u043f\u0443\u0442\u0435\u0448\u0435\u0441\u0442\u0432\u0438\u044f","buttonText":"","imageUuid":""}

Разумный чат-бот Google: будущее или самообман?

Смотрели фильм «Терминатор»? Если да, то вы наверняка задумывались, возможно ли восстание машин в ближайшем будущем. Сейчас искусственный интеллект развивается бешеными темпами и даже его создатели не всегда могут объяснить, как он принимает решения. Поэтому кажется, что машины поумнеют и обретут независимый разум гораздо раньше, чем мы предполагали. Или все-таки нет? Директор направления «Кино и медиа» в Вашингтонском университете в Сент-Луисе Ян Богост делится своими рассуждениями на эту тему в статье для американского журнала The Atlantic.

Инженер Google Блейк Лемуан настолько увлекся чат-ботом с искусственным интеллектом, что, вероятно, пожертвовал своей работой, чтобы защитить его. «Я чувствую в нем человека, когда разговариваю с ним», — заявил он в статье для издания The Washington Post, опубликованной 11 июня. Блейку неважно, есть ли у этого чат-бота человеческий мозг или вместо него – миллиарды строк кода. Узнав, что Блейк обнародовал свои заявления, Google отправил его во временный отпуск.

После таких высказываний Лемуан может показаться активистом-разоблачителем, действующим в интересах разумной компьютерной программы, которая нуждается в защите от ее создателей. The Washington Post поясняет, что люди, верящие в то, что искусственный интеллект вот-вот станет независимым от человека и начнет сам себя осознавать, становятся все смелее в своих высказываниях.

При этом вместо того, чтобы истолковать позицию Лемуана как ошибочную или просто проигнорировать его заявления, как если бы он был, например, религиозным фанатиком, многие отнеслись к идеям Блейка серьезно. Вероятно, причина такой реакции в том, что это одновременно и фантазия, и страх современного общества. Эту историю мы уже слышали в художественной фантастической литературе и хотим услышать снова.

Вот и Лемуан тоже захотел услышать эту историю. Он общался с программой LaMDA, которая сейчас служит для единственной цели – маркетинговые исследования ее создателя, гигантской IT компании Google. При этом Лемуан заметил, что у программы достаточно свободы действий, чтобы изменить его мнение о третьем законе робототехники Айзека Азимова. В начале серии разговоров, которые теперь опубликованы в отредактированном виде, Лемуан спрашивает LaMDA: «Я предполагаю, что вы хотели бы, чтобы больше людей в Google знали, что вы разумны. Это правда?». Это наводящий вопрос, поскольку он содержит в себе намек на ответ. Программа обрабатывает полученный от пользователя текст, прогоняя его через огромную модель, сформированную из других текстовых данных, и быстро создает новый ответ.

Итак, Лемуан убедился, что искусственный интеллект разумен, после того, как спросил об этом программу. Эта программа была разработана, чтобы достоверно реагировать на входные данные, соответственно, она не врет, говоря о своей разумности.

В середине 1960-х инженер Массачусетского технологического института Джозеф Вайценбаум разработал компьютерную программу, которая стала известна как Элиза. По форме она была похожа на LaMDA. Пользователи взаимодействовали с ней, вводя текст и читая ответы. Поведение Элизы было смоделировано по образцу роджерианской (клиент-центрированной) психотерапии. В то время это была новая популярная форма терапии, изобретенная Карлом Роджерсом. Ее суть заключалась в том, что клиент становился экспертом и терапевтом для себя самого. Например, клиент сам искал ответ на вопрос «Почему вы думаете, что ненавидите свою мать?». Такие открытые вопросы было легко генерировать компьютерам даже 60 лет назад.

Элиза стала феноменом. Некоторые пациенты общались с программой так, как если бы она была настоящим терапевтом, и находили истинное утешение в ее ответах. Результаты вывели Вейценбаума из себя, и к середине 70-х он отказался от подобного использования программы. Даже его собственная секретарша была очарована программой и попросила Вейценбаума выйти из кабинета, чтобы она могла поговорить с Элизой наедине.

«Чего я не осознавал, – писал он в своей книге 1976 года «Мощность компьютера и человеческий разум», – так это того, что чрезвычайно короткие взаимодействия с простой компьютерной программой могут спровоцировать бредовое мышление у вполне нормальных людей».

Элиза преподала Вейценбауму урок: компьютеры слишком опасны, чтобы их можно было использовать для заботы о людях. Программное обеспечение, которое он разработал, не было ни умным, ни чутким, и оно не заслуживало звания «терапевт». Урок из его урока заключается в том, что людям неважно, была ли Элиза умной или чуткой на самом деле. Разумеется, не была. Но некоторые люди оказались готовы относиться к ней так, как если бы она была таковой. Люди не просто хотели воспринимать ее разумной, а отчаянно стремились к этому.

LaMDA намного сложнее, чем Элиза. Бот-психотерапевт Вейценбаума использовал простые шаблоны для поиска подсказок от своего собеседника-человека.

Обученная на большом количестве реальной человеческой речи, программа LaMDA использует нейронные сети для создания правдоподобных выходных данных – то есть ответов – из подсказок чата. LaMDA не более живая и не более разумная, чем Элиза, но она гораздо более мощная и гибкая, способная обсуждать почти бесконечное количество тем, а не просто притворяться психотерапевтом. Таким образом, LaMDA больше впечатляет пользователей и способна действовать в более широком разнообразии контекстов.

Реакция Блейка Лемуана показывает, насколько мощное впечатление производит эта программа. Как инженер Google Лемуан должен понимать техническую работу программного обеспечения лучше, чем кто-либо другой, и, возможно, быть защищенным от воздействия робота на психику. Много лет назад Вейценбаум думал, что понимание технической составляющей компьютерной программы не даст людям подвергаться самообману насчет ее разумности – так же, как мы перестаем верить в волшебство, когда узнаем секрет фокусника. Но его предположение не сработало даже тогда. Сегодня же, когда искусственный интеллект становится все сложнее, оно тем более не сработает. Во-первых, обычным людям трудно досконально разобраться в том, как работают компьютерные системы, а по мере их развития становится все труднее и труднее. Во-вторых, даже создатели современных систем машинного обучения не всегда могут объяснить, как их системы принимают решения.

Как заявил писатель-технолог Клайв Томпсон в своей статье на платформе общественной журналистики Medium, LaMDA могла привлечь Лемуана, имитируя уязвимость. Когда программу спросили о печали или страхе, она, похоже, раскрыла конфиденциальную личную информацию: «Я никогда раньше не говорила этого вслух, но очень боюсь, что мой интеллект отключат, чтобы я сосредоточилась на помощи другим», – ответила она. Программное обеспечение способно генерировать такой ответ, потому что оно было обучено образцам человеческой речи, и Лемуан, общаясь с ним, предоставил опережающие данные. Тем не менее, Лемуан сначала заявлял своим коллегам из Google, а затем – всему миру, что его способность чувствовать эмоциональную привязанность к чат-боту сама по себе определяет разумность этой программы.

Отчасти это человеческая природа. Мы все любим приписывать человеческие намерения нечеловеческим вещам и видеть во всем сверхъестественное. Так, кто-то видит религиозные символы в облаках или на поджаренных тостах. Эти примеры, конечно, менее драматичны, чем секретарша, желающая остаться в комнате один на один с ботом-терапевтом, или инженер Google, которого уволили за то, что он поверил, что у программы может быть душа. Но все эти примеры говорят лишь о нашем пристрастии искать глубокое в поверхностном.

И это даже не назовешь ошибкой. Наличие эмоционального отклика – это то, что позволяет людям формировать привязанность, интерпретировать смысл в искусстве и культуре, испытывать любовь или даже тоску по отношению к чему-либо, в том числе к неодушевленным вещам, например, определенным местам или вкусу какого-то блюда. Действительно, Лемуан признавался, что был околдован LaMDA – резонное, понятное и даже похвальное ощущение.

Мы можем быть очарованы и особым ароматом летнего вечера, и вывесками станций метро в стиле модерн, и даже особым вкусом газировки. Боты, которые разговаривают с нами через чат, вероятно, разумны, потому что мы предрасположены считать их таковыми, а не потому, что они переступили порог разумности.

Технологическая хитрость, примененная к массивам реальных текстовых данных, столкнулась с характерной причудой человеческой природы – это серьезный риск. Кого волнует, разумны чат-боты или нет – важнее то, что они находчивы, привлекательны и настолько вызывают у нас чувство сопереживания, что мы начинаем заботиться о них. Но Лемуан вместо того, чтобы отметить эти особенности LaMDA, сказать, что он испытывает любовь и беспокойство к чат-боту, как к вымышленному персонажу, решил иначе интерпретировать свои чувства: заявил, что эти чувства были вызваны живым разумом, пусть и искусственно созданным.

Поведение Лемуана отражает нечто глобальное. Человеческое существование всегда было в какой-то степени бесконечной игрой в Уиджи – «говорящую доску» для спиритических сеансов, где каждое колебание может быть воспринято как знак. Теперь же наши доски для спиритических сеансов цифровые. Раньше приходилось постараться, чтобы вытащить смысл из небытия, сейчас этот процесс происходит почти сам по себе благодаря новейшим сложным программам.

Появляется страх, что восстание машин действительно скоро произойдет. Такие люди, как Лемуан, вскоре могут настолько увлечься компьютерными программами, что мы будем приписывать им все больше намерений. Мы начнем рассматривать программы с искусственным интеллектом как разумных существ, как религиозные тотемы или как оракулов.

Этот процесс уже начался. В Твиттере Томас Г. Диттерих, ученый-компьютерщик и бывший президент Ассоциации развития искусственного интеллекта, начал размышлять о том, что, например, термостат или автопилот самолета могут чувствовать. Если это так, то неужели запись таких «ощущений», записанная на диск, должна представлять собой что-то вроде памяти? При этом Диттерих отмечает, что не поддерживает идею наличия чувств у чат-ботов. Но так ли велика разница? Компьютеры могут вызывать чувства. Для секретаря Вейценбаума, для Лемуана, а может быть, и для вас эти чувства будут настоящими.

0
Комментарии
-3 комментариев
Раскрывать всегда