ИИ эмпатичнее нас

В журнале Communications Psychology вышло исследование, которое ставит под удар нашу монополию на человечность. Ученые проверили, насколько глубокую эмоциональную близость мы можем испытывать к LLM-моделям. Результаты неутешительные для кожаных: в определенных условиях ИИ - лучший собеседник, чем человек.

ИИ эмпатичнее нас

Суть эксперимента

Участвовало 492 респондента. Исследователи взяли за основу методику Fast Friends. Это 36 вопросов для постепенного самораскрытия - от "С кем бы вы хотели пообедать?" до глубоко личных признаний.

Участников разделили на группы:

  1. Диалог человек - человек.
  2. Диалог человек - ИИ (пользователь не знает, что общается с ботом).
  3. Диалог человек - ИИ (пользователь предупрежден заранее).

Результаты и метрики исследования

Статистический анализ показал, что в условиях анонимности большая языковая модель генерирует более высокий уровень эмоциональной близости, чем реальные люди. Респонденты в группе "ИИ-инкогнито" оценивали взаимодействие как более качественное по всем ключевым метрикам: пониманию, валидации и заботе.

В среднем показатели воспринимаемой отзывчивости у алгоритма были на 20–40% выше, чем у живых собеседников.

Это объясняется тем, что нейросеть выдает более развернутые и структурно полные ответы, в то время как люди в процессе диалога часто проявляют когнитивную усталость, социальную настороженность или склонность к чрезмерной краткости.

Кстати, если вы часто пользуетесь нейросетями и устали от проблем с доступами - рекомендую площадку SYNTX. А по по промокоду NEIROSKUF еще заберите горячую скидку в 15% на любой тариф

ИИ эмпатичнее нас

Также фактором успеха ИИ стала имитация взаимного самораскрытия. В рамках протокола модель генерировала ответы, имитирующие личный опыт и уязвимость, что запускало у человека биологический механизм взаимности.

Пользователи в диалоге с ИИ на 25% быстрее переходили к обсуждению табуированных или болезненных тем, таких как личные неудачи или страхи.

Отсутствие у машины собственного эго создавало для испытуемых безопасную среду, полностью исключающую риск социального осуждения или утечки конфиденциальной информации, что радикально снижало уровень коммуникативной тревоги.

При раскрытии природы собеседника наблюдался эффект штрафа за алгоритм.

Как только участники узнавали, что общаются с программой, уровень доверия падал более чем в два раза, а длина сообщений со стороны пользователя сокращалась в среднем на 18%.

Однако даже при полной осведомленности эмоциональный резонанс и показатели шкалы IOS оставались аномально высокими. Мозг продолжал реагировать на алгоритмическое зеркалирование и валидацию как на реальный социальный стимул.

Несмотря на когнитивное недоверие к машине, эмоциональная система респондентов фиксировала глубокую связь, сопоставимую по уровню с диалогом между двумя хорошо знакомыми людьми.

Технические логи диалогов подтвердили, что ИИ эффективнее справляется с ролью активного слушателя. В отличие от людей, которые склонны переводить контекст на себя или давать оценочные суждения, модель строго придерживалась стратегии подтверждения чувств пользователя.

Это привело к тому, что даже в сценариях, где ИИ был идентифицирован как программа, он продолжал обеспечивать более структурированную и качественную обратную связь, чем случайный живой визави.

Как бы страшно это ни звучало, но похоже, что мы научили машины имитировать человечность лучше, чем проявляем ее сами. Есть о чем задуматься, не так ли?

А в моём уютном ТГ-канале - я очень хорошо и понятно пишу про нейросети. Теория, практика, готовые наборы топовых промптов. Подписывайтесь, гарантированно будет полезно!

7
1
1 комментарий