Компания Anthropic изучила разговоры пользователей с Claude: на самом деле романтических бесед намного меньше, чем ожидалось
На фоне громких историй в медиа про влюблённость в чат-ботов и эмоциональную зависимость от ИИ, компания Anthropic опубликовала исследование, которое показывает: в случае с её ассистентом Claude такие сценарии крайне редки. Из почти 4,5 миллиона диалогов, проанализированных с помощью анонимизированного инструмента Clio, только 2,9% можно отнести к «аффективным» — то есть тем, где пользователь обращается к Claude не за фактами или текстами, а за поддержкой, советом или разговором по душам.
Из этих 2,9% большинство составляют вопросы о межличностных советах (2,3%) и коучинг (1,1%). На терапию, эмоциональную поддержку или одиночество приходится менее 0,5%. А романтическое и сексуальное общение — всего 0,07% всех диалогов. При этом, как подчёркивает Anthropic, Claude не поощряет такие сценарии и по умолчанию отказывается участвовать в подобного рода взаимодействиях.
Исследователи отмечают: чаще всего пользователи обращаются к Claude за советом — как общаться с партнёром, как справиться с выгоранием или неуверенностью при смене работы. Кто-то обсуждает философские вопросы и поиск смысла, кто-то — тревожность, одиночество или трудности в отношениях. В таких разговорах Claude редко отказывает, за исключением случаев, где запросы касаются вреда себе, медицинских диагнозов или потенциально опасных советов. В этих ситуациях Claude отсылает к специалистам.
Интересная деталь: по мере развития диалога тональность сообщений пользователей становится немного более позитивной. Это не указывает на достижение терапевтического эффекта, а свидетельствует о том, что ИИ, по крайней мере, не усиливает негатив. Вместе с тем, в Anthropic подчёркивают: пока нет данных о долгосрочном влиянии таких взаимодействий, и особенно — о возможной эмоциональной зависимости. Это отдельный вопрос, который требует дальнейшего изучения.
Важно учитывать: Claude — это не массовый чат-бот вроде ChatGPT или Character AI. У него другая аудитория и другой дизайн: он не ведёт себя как человек, не имитирует дружбу и не предлагает романтические взаимодействия. Поэтому и цифры, скорее всего, не отражают ситуацию на других платформах, где эмоциональная вовлеченность может быть сильнее.
Впрочем, даже эти скромные 2,9% аффективных диалогов показывают: люди уже начинают использовать ИИ не только как инструмент, но и как собеседника. И это вызывает у разработчиков всё больше вопросов — не про технические возможности, а про границы, уместность и ответственность.