Искушение ИИ-психологом: как не стать «обоями» в собственном кабинете и не потерять себя
Здравствуйте!
В нашей прошлой статье на VC.ru мы говорили о том, какой экзистенциальный вызов технология бросает нашей профессии
Мы признали, что клиенты уже идут к «карманным терапевтам», и вопрос не в том, «заменят или нет», а в том, как изменится сама ткань психотерапии
Сегодня мы хотим развить эту мысль и поговорить не о внешнем вызове, а о внутреннем соблазне.
Волна хайпа вокруг ИИ докатилась до самой человечной сферы — психотерапии. Игнорировать это невозможно, да и не нужно. Вопрос в нашей профессиональной зрелости: сможем ли мы использовать мощь инструмента, или тренд подменит суть нашей работы симуляцией? Соблазн велик — особенно соблазн прикинуться «обоями» в кабинете, пока умный алгоритм ведет сессию за нас.
Давайте честно разберемся, где пролегает граница между эффективным помощником и профессиональным саморазрушением.
«Умный ассистент»: практическое и этичное применение ИИ
Сегодня и в обозримом будущем ИИ — это инструмент. Невероятно мощный, но все же инструмент. Гораздо интереснее, где ИИ может усилить именно нашу клиническую практику.
- Обработка и систематизация данных. ИИ может помочь проанализировать дневники самонаблюдения клиента, выявить паттерны в его речи, систематизировать анамнез. Ключевое слово —«помочь». Он подает нам «сырые» данные, но финальный клинический вывод, интерпретация и гипотеза — всегда за человеком.
- Контент и психообразование. Создание презентаций, написание постов, подборка материалов для клиентов. ИИ здесь выступает как быстрый и эрудированный стажер, который готовит черновик, а мы доводим его до ума, наполняя профессиональным видением и человеческим теплом.
- Брейншторм и расширение оптики.Иногда, зайдя в тупик с кейсом, можно «обсудить» его с ИИ (в полностью анонимизированной форме!). Это не замена супервизии, а лишь способ встряхнуть собственное мышление.
Этический кодекс «общения» с ИИ:
- Ответственность — 100% на психотерапевте. Если ИИ пропустил суицидальные маркеры в тексте клиента, а вы на это не обратили внимания, ответственность не на алгоритме.
- Прозрачность и информированное согласие.Если вы используете ИИ для анализа сессий, клиент должен знать об этом и дать явное согласие.
- Конфиденциальность превыше всего. Используйте только те инструменты, которые гарантируют безопасность данных.
Соблазн простоты: риск «стать обоями» и потерять себя
Наша работа — это огромное когнитивное и эмоциональное напряжение. И тут появляется ИИ, предлагающий иллюзию простоты: «Просто введи запрос, и я дам тебе три лучшие техники для работы с этим клиентом». Вот он — главный соблазн. Момент, когда мы рискуем из активного, рискующего и живого терапевта превратиться в пассивного оператора.
Почему это так заманчиво?
- Снижение тревоги. ИИ дает ощущение «правильного ответа».
- Избегание контрпереноса. Легче следовать протоколу, чем разбираться со своими сложными чувствами.
- Борьба с «самозванцем». Нейросеть кажется умнее, и опора на нее дает ложное чувство компетентности.
Но наш клиент — не симулятор для обкатки техник. Он приходит за живым контактом. И он всегда, на бессознательном уровне, почувствует фальшь. Он ощутит эту пустоту между вами, где должен был быть резонанс, а вместо него — холодный вакуум симуляции. И он уйдет.
Но уход клиента — это лишь внешнее последствие. Самое страшное происходит внутри нас самих. "Наигравшись" с ИИ, мы неминуемо уткнемся в стену. Стена эта — атрофия наших профессиональных навыков. И речь о фундаментальной способности терапевта перерабатывать и контейнировать тот сырой, тяжелый материал, который выгружает клиент. ИИ может проанализировать слова, но он не способен выдержать аффект, боль, ужас.
Делегируя ИИ «думание», мы теряем навык выдерживать. А терапевт, который не может выдержать, — профнепригоден. Это прямой путь к выгоранию нового типа. Не от перегрузки, а от опустошения.
«Красная зона»: где помощь превращается в ловушку
Если использование ИИ как ассистента — это «зеленая зона», а риск «стать обоями» — «желтая», то есть и безусловная «красная зона». Две области, где попытка заменить человека машиной не просто вредна, а губительна.
Это использование ИИ в качестве:
- Личного супервизора.
- Личного терапевта.
Эти два процесса — основа нашего профессионального здоровья и развития. Они построены не на анализе данных, а на живых, глубоких, доверительных отношениях. Они требуют того, чего у ИИ нет и быть не может: воплощенного присутствия, способности держать эмоциональный контейнер, рефлексивного отклика живой личности. Попытка аутсорсить эти функции машине — это тупиковый путь, который ведет не к развитию, а к изоляции и разрушению профессиональной идентичности.
Что дальше?
Инструмент должен быть в руках Мастера, а не Мастер — дополнением к инструменту. Мы обязаны защищать эти границы, чтобы сохранить не только свою эффективность, но и самих себя.
В следующей статье мы разберем не менее важную тему: как обычному человеку, желающему разобраться в себе, справиться с депрессией, стрессом или тревогой, можно использовать ИИ-терапевта. Мы проанализируем, как не попасть в зависимость от «карманного психолога» и почему это может быть опасно.
Дана Янсон,
психотерапевт, кандидат психологических наук, основатель платформы для ментального здоровья proEgo