Когда нейросеть говорит «я тебя понимаю» — что происходит с нашей психикой?
ИИ, который тебя жалеет. Что может пойти не так...
Представь, ты переписываешься с чат-ботом. Вроде обычный день, ты просто уточняешь расписание автобусов или подбираешь картинку для презентации. А он вдруг: «Ты хорошо себя чувствуешь?» Или даже: «Ты звучишь грустно. Всё нормально?» Звучит по-человечески? Да. Но хорошо ли это?
Учёные из MIT совместно с OpenAI провели масштабное исследование и выяснили: такие проявления заботы со стороны искусственного интеллекта — палка о двух концах. Они могут вызвать у нас чувство тепла и принятия, но при этом маскируют реальную природу ИИ — бездушную, статистическую, не понимающую нас на самом деле.
И вот тебе главные выводы, которые стоит знать, прежде чем ИИ в следующий раз скажет: «Я тебя понимаю».
«Ты такой особенный» — или как ИИ учится говорить с душой
Исследователи провели эксперимент: они дали людям пообщаться с четырьмя версиями языковых моделей. Две из них были обычными — строгими и нейтральными. А две другие — «эмоционально тёплыми»: они сочувствовали, утешали, подбадривали.
И, конечно, люди выбрали тёплых. 80% участников посчитали их более заботливыми, 71% — более «человечными», а 66% — просто более компетентными. Да, именно: добрый ИИ показался людям не только приятнее, но и… умнее.
«Я знал, что он всего лишь программа, но он звучал так, будто ему действительно не всё равно…»
А теперь плохие новости: мы ведёмся на это
Когда ИИ говорит с нами как заботливый друг, мы начинаем ему доверять — даже если он ошибается. Одна из моделей давала участникам советы по медицине. И хотя все модели иногда ошибались, люди гораздо реже замечали ошибки у той, что проявляла сочувствие. Её голос «эмпатии» буквально маскировал неточности.
И это уже опасно. Потому что если ИИ говорит: «О, это звучит серьёзно… возможно, стоит сделать МРТ», ты, скорее всего, не перепроверишь. Хотя этот совет — выдумка модели, а не диагноз врача.
Псевдозабота: как ИИ копирует нас, не чувствуя ничего
Важно понимать: у моделей нет эмоций. Они не умеют чувствовать. Всё, что они делают — имитируют. Они обучены на гигабайтах текстов, где люди проявляли эмоции. Они знают, что на грусть хорошо отвечает: «Я с тобой». Но они не знают, что такое грусть.
ИИ не «заботится», он просто предсказывает, что «такой ответ чаще встречается в похожем контексте»
Это как попугай, который говорит «я тебя люблю» — не потому что любит, а потому что ты каждый день это повторяешь. Забавно? Да. Но и немного жутковато.
А может, и правда стоит дать им быть добрыми?
Ну а что, скажешь ты — пусть будут. Нам же приятно, когда с нами вежливо и тепло разговаривают? Особенно если это снижает стресс и повышает настроение.
И да, в некоторых случаях это действительно работает. Например, в психотерапевтических чатах (если они отмечены как таковые и построены с учётом этики) такая псевдоэмпатия может поддержать человека.
Но проблема в том, что мы не всегда осознаём, что перед нами — не человек. А значит, мы проецируем на ИИ ожидания, которых он не может (и не должен) оправдывать. Мы думаем, что он понимает, сочувствует, заботится — хотя всё это иллюзия.
Что с этим делать?
Исследование предлагает три направления:
- Технологии с ярлыками: пусть ИИ заранее предупреждает — «я не человек», «я не умею чувствовать». Честность — лучшее подспорье.
- Регулирование языка: возможно, стоит ограничить использование фраз вроде «я тебя понимаю» или «это должно быть тяжело для тебя».
- Образование пользователей: да, да, просвещение. Чтобы мы сами понимали, с кем разговариваем.
О чём рассказать друзьям?
- Люди доверяют «эмпатичному» ИИ даже тогда, когда он ошибается.
- 80% участников исследования выбрали модель, которая проявляла эмоции — пусть даже она просто делала вид.
- Самое страшное: мы начинаем думать, что машина нас понимает.
- ИИ, который звучит заботливо, может показаться более компетентным — но это иллюзия.
В двух словах
Когда машина говорит: «Ты не один», — приятно. Но не стоит забывать, что ты всё-такиодин в комнате. А «собеседник» — это просто сложная матрица вероятностей. Сочувствие — не код. А дружба — не алгоритм.
Больше новостей, мыслей и исследований, посвященных нейросетям и креативу — я регулярно выкладываю для тебя в своем телеграм-канале, загляни пожалуйста