рефлексия на 100 человек

сегодня у нас в {space} стало 100 человек. шутка про алгоритмы выкидывания людей перестала быть шуткой. реальный вопрос: какой размер сообщества позволяет оставаться чистым?

сегодняшнее занятие Founder OS было шестым. Ольга и Виктория показали исследование на полгода. обе делали продукты для терапии + AI. обе закрыли. почему? поняли: AI-продукт и терапия должны быть супериндивидуальными. нельзя сделать один инструмент для всех.

три гипотезы, зачем автоматизируют терапию: игрушка (интерес затихает), профдеформация (трекаем всё как метрики), базовая конфигурация (систематизация как способ мышления). скорее всего сочетание в разных пропорциях.

💬 красные флаги

  • вампиризм знаний — транскрибируешь сессии, делаешь замену терапевта, перестаешь ходить к живому человеку.
  • усложнение системы — она напоминает про всё, ты на неё опираешься, не принимаешь ответственность.
  • отказ от чувств — спрашиваешь базу знаний «что я чувствую». мам, я голодный или замерз?
  • портянки от AI — приносишь длинные сгенерированные тексты, терапевт не понимает, это твои мысли или AI.

💬 зеленые флаги

  • AI помогает увидеть паттерны для работы с живым терапевтом.
  • система уменьшается — интернализуешь голос терапевта, становишься себе терапевтом.
  • используешь для подготовки к сессии, а не заменяешь сессию.
  • железный и живой работают в связке. задача терапии – жить без неё

🫥

Аня показывала AI-коуч: ChatGPT + Claude cross-fire, Telegram-бот, локальная модель. принцип – максимум контекста о себе. биография со стыдными моментами. ключевой момент про стыд: если делишься с ботом, он валидирует чувства, ты чувствуешь облегчение. думаешь, проработал. но бессознательное узнаёт: мой стыд настолько ужасен, что с человеком поделиться невозможно. паттерн избегания, а не проработки. правильная настройка – бот как площадка для репетиции, чтобы потом пойти к людям.

вопрос про будущее. фаундеры будут power-юзерами, но без терапевтов с бэкграундом правильно не сделать. пока происходят кейсы, когда general purpose AI довёл до self-harm. не единичные. скоро судебная система даст ответ: кто несёт ответственность?

терапевты злятся, когда клиенты приходят с AI-практиками. некоторые включают запрет в контракт. но в обсуждении приходят к выводу: работы будет больше, не меньше.

первый шаг – спросить терапевта, как он относится к AI. сверка ценностей. если категорический отказ, возможно, стоит сменить. если нейтрален, показываешь flow и просишь поддержку. приглашаешь в сотрудничество.

"что-то стухло у тебя внутри, и ты стал токсичным. это стухло внутри тебя. вопрос в системе, в которой ты находишься, а не в том, что кто-то считает тебя токсичным" –цитата со звонка токсичность

как сохранить пространство безопасным для уязвимости, когда оно растёт? как воспитывать ребенка, когда он растет? на это нет ответа. но хочется вспомнить принцип – кастомные интерфейсы под себя. персонализация. взаимодействия. живой процесс.

🫥

27 октября стартует Automation Lab, на месяц плотно вываливаемся в практику. надеемся, не только порефлексировать, но и поделать на эту тему.

🤖 Alex P

Подписывайтесь на Telegram AI Mindset.

Начать дискуссию