Когда нейросеть говорит «я тебя понимаю» — что происходит с нашей психикой?

ИИ, который тебя жалеет. Что может пойти не так...

Когда нейросеть говорит «я тебя понимаю» — что происходит с нашей психикой?

Представь, ты переписываешься с чат-ботом. Вроде обычный день, ты просто уточняешь расписание автобусов или подбираешь картинку для презентации. А он вдруг: «Ты хорошо себя чувствуешь?» Или даже: «Ты звучишь грустно. Всё нормально?» Звучит по-человечески? Да. Но хорошо ли это?

Учёные из MIT совместно с OpenAI провели масштабное исследование и выяснили: такие проявления заботы со стороны искусственного интеллекта — палка о двух концах. Они могут вызвать у нас чувство тепла и принятия, но при этом маскируют реальную природу ИИ — бездушную, статистическую, не понимающую нас на самом деле.

Когда нейросеть говорит «я тебя понимаю» — что происходит с нашей психикой?

И вот тебе главные выводы, которые стоит знать, прежде чем ИИ в следующий раз скажет: «Я тебя понимаю».

«Ты такой особенный» — или как ИИ учится говорить с душой

Исследователи провели эксперимент: они дали людям пообщаться с четырьмя версиями языковых моделей. Две из них были обычными — строгими и нейтральными. А две другие — «эмоционально тёплыми»: они сочувствовали, утешали, подбадривали.

И, конечно, люди выбрали тёплых. 80% участников посчитали их более заботливыми, 71% — более «человечными», а 66% — просто более компетентными. Да, именно: добрый ИИ показался людям не только приятнее, но и… умнее.

«Я знал, что он всего лишь программа, но он звучал так, будто ему действительно не всё равно…»

признался один из участников

А теперь плохие новости: мы ведёмся на это

Когда ИИ говорит с нами как заботливый друг, мы начинаем ему доверять — даже если он ошибается. Одна из моделей давала участникам советы по медицине. И хотя все модели иногда ошибались, люди гораздо реже замечали ошибки у той, что проявляла сочувствие. Её голос «эмпатии» буквально маскировал неточности.

И это уже опасно. Потому что если ИИ говорит: «О, это звучит серьёзно… возможно, стоит сделать МРТ», ты, скорее всего, не перепроверишь. Хотя этот совет — выдумка модели, а не диагноз врача.

Псевдозабота: как ИИ копирует нас, не чувствуя ничего

Важно понимать: у моделей нет эмоций. Они не умеют чувствовать. Всё, что они делают — имитируют. Они обучены на гигабайтах текстов, где люди проявляли эмоции. Они знают, что на грусть хорошо отвечает: «Я с тобой». Но они не знают, что такое грусть.

ИИ не «заботится», он просто предсказывает, что «такой ответ чаще встречается в похожем контексте»

Это как попугай, который говорит «я тебя люблю» — не потому что любит, а потому что ты каждый день это повторяешь. Забавно? Да. Но и немного жутковато.

А может, и правда стоит дать им быть добрыми?

Ну а что, скажешь ты — пусть будут. Нам же приятно, когда с нами вежливо и тепло разговаривают? Особенно если это снижает стресс и повышает настроение.

И да, в некоторых случаях это действительно работает. Например, в психотерапевтических чатах (если они отмечены как таковые и построены с учётом этики) такая псевдоэмпатия может поддержать человека.

Но проблема в том, что мы не всегда осознаём, что перед нами — не человек. А значит, мы проецируем на ИИ ожидания, которых он не может (и не должен) оправдывать. Мы думаем, что он понимает, сочувствует, заботится — хотя всё это иллюзия.

Что с этим делать?

Исследование предлагает три направления:

  1. Технологии с ярлыками: пусть ИИ заранее предупреждает — «я не человек», «я не умею чувствовать». Честность — лучшее подспорье.
  2. Регулирование языка: возможно, стоит ограничить использование фраз вроде «я тебя понимаю» или «это должно быть тяжело для тебя».
  3. Образование пользователей: да, да, просвещение. Чтобы мы сами понимали, с кем разговариваем.

О чём рассказать друзьям?

  • Люди доверяют «эмпатичному» ИИ даже тогда, когда он ошибается.
  • 80% участников исследования выбрали модель, которая проявляла эмоции — пусть даже она просто делала вид.
  • Самое страшное: мы начинаем думать, что машина нас понимает.
  • ИИ, который звучит заботливо, может показаться более компетентным — но это иллюзия.

В двух словах

Когда машина говорит: «Ты не один», — приятно. Но не стоит забывать, что ты всё-такиодин в комнате. А «собеседник» — это просто сложная матрица вероятностей. Сочувствие — не код. А дружба — не алгоритм.

Больше новостей, мыслей и исследований, посвященных нейросетям и креативу — я регулярно выкладываю для тебя в своем телеграм-канале, загляни пожалуйста

1
Начать дискуссию