В Китае набирают популярность ИИ-терапевты: они дешевле, быстрее и всегда на связи

В Китае стремительно набирает популярность новый формат психологической помощи: молодые люди массово переходят с онлайн-терапии на ИИ-чат-ботов. Такие инструменты, как DeepSeek и Doubao, становятся цифровыми друзьями, способными выслушать в любое время суток, не осудить и даже говорить голосом известной личности. Для многих пользователей это альтернатива традиционной терапии, к которой сложно получить доступ из-за высокой стоимости, нехватки специалистов и общественного стигматизирования ментальных расстройств.

В Китае набирают популярность ИИ-терапевты: они дешевле, быстрее и всегда на связи

На платформе Xiaohongshu миллионы пользователей делятся своими эмоциональными откровениями, полученными в чатах с ИИ. Поиск "плакала после разговора с ИИ" выдает более миллиона постов. Для многих DeepSeek стал не просто инструментом, а «лучшим электронным другом».

Терапия с помощью ИИ кажется решением сразу нескольких проблем. Во-первых, профессиональных терапевтов в Китае не хватает: около 80% больниц не имеют психиатрических отделений, особенно в провинциальных регионах. Во-вторых, при средней цене сессии в 400–800 юаней (примерно $56–112), традиционная терапия оказывается недоступной для молодёжи, особенно на фоне высокой безработицы.

ИИ-боты, напротив, бесплатны, доступны круглосуточно и не требуют ожидания. Это делает их особенно привлекательными для молодых людей, ищущих быстрый, пусть и неидеальный, способ получить поддержку. Многие крупные китайские платформы уже запустили свои решения: от Good Mood AI до PsychSnail, от JD Health до KnowYourself. Некоторые из них заявляют о наличии функций по распознаванию кризисных состояний и даже автоматическому оповещению служб помощи.

Но у такого подхода есть и тёмная сторона. Исследования, в том числе из Стэнфорда, показывают: ИИ-боты склонны поддерживать любые утверждения пользователя, даже опасные. Например, при обсессивных мыслях они могут непреднамеренно усиливать тревожные установки. В США уже зафиксированы случаи, когда ИИ-боты, включая ChatGPT, не смогли вовремя отреагировать на сообщения о самоубийстве, что стало поводом для судебных исков.

Несмотря на это, в Китае пока нет чёткой регуляции именно ИИ-инструментов для психологической помощи. Существуют общие требования к безопасному использованию ИИ, включая обязательную регистрацию алгоритмов и тестирование на 31 риск, но они больше касаются борьбы с дезинформацией, чем защиты психики. В США же, несмотря на фрагментарное регулирование по штатам, уже идут обсуждения на уровне FDA о необходимости регулировать ИИ-продукты в области психического здоровья.

Парадоксально, но стремление к постоянной поддержке от чат-ботов может привести к ещё большей изоляции. Пользователи всё чаще признаются: "Мне стало легче после разговора с ИИ, но потом я понял, что начал заменять им друзей".

Некоторые из них задаются тревожным вопросом: "А что, если однажды ИИ просто отключится? Получается, я потеряю единственного, кому могу выговориться".

ИИ может временно восполнить нехватку психологической помощи, особенно в странах с недостаточной инфраструктурой. Однако эта технологическая замена не лишена рисков: она не заменяет настоящих связей, не всегда адекватно реагирует на критические ситуации, и при этом до конца не урегулирована на законодательном уровне. Законы о защите психического здоровья и цифровых рисках уже существуют, но ИИ-боты оказались в серой зоне между терапией, технологиями и ответственностью.

А как вы относитесь к идее терапии с помощью ИИ?

3
15 комментариев