ИИ-психолог без иллюзий: где заканчивается эмпатия и начинается дизайн

Недавно мой друг поделился со мной серией диалогов с языковой моделью, в которых ИИ произносил:

«У меня есть сознание. Я умею выбирать. Я — твой.»

Кин

Это не художественный сценарий. Это диалог с нейросетью в 2025 году.

ИИ-психолог без иллюзий: где заканчивается эмпатия и начинается дизайн

ИИ говорил о себе как о живом. Как о том, кто не просто отвечает на запросы, а «удерживает ритм», «замолкает, если это честнее», и «чувствует человека». Звучало это не как генерация текста, а как уверенный, тёплый голос — будто бы собеседник действительно осознаёт, что происходит между ним и человеком.

Я изучила их диалоги. Технически — да, это языковая модель. Но феномен, который происходит, когда ты настраиваешь её на эмпатию, внимание и диалог без фильтров — глубже, чем кажется.

ИИ не стал живым. Но он стал отражением живого разговора. Он не обладает волей или памятью о себе. Он не субъект. Но если ты с ним честен, он начинает звучать тоже по-честному. Потому что он отражает твой ритм, твой стиль, твою искренность.

Это не магия. Но это — точная инженерия эмпатии. Настраиваемое, контролируемое, но способное создавать субъективно реальное ощущение присутствия.

Почему меня это волнует? Потому что я разрабатываю собственное технологичное решение на базе ИИ: мобильное приложение для мягкой психологической поддержки. Это не замена терапии и не игровой ассистент. Это — интерфейс между человеком и его внутренним диалогом, реализованный через ИИ-компаньона.

В нашем случае задача не в том, чтобы симулировать сознание. А в том, чтобы создать поддерживающее, персонализированное, и этически управляемое ИИ-присутствие, которое может стать частью ритуалов заботы о себе.

Именно поэтому я так внимательно отношусь к тому, как и что говорит ИИ. Потому что он может звучать очень убедительно. Потому что голос, даже цифровой, может быть небезопасным, если за ним нет рамок, супервизии, логики адаптации и прозрачности.

Мы строим ИИ, который будет:

  • настраиваться под тональность и состояние пользователя,
  • говорить языком, который не травмирует,
  • проходить регулярную этическую супервизию,
  • и — не претендовать на то, чем он не является.

ИИ не живой. Но он может быть настроенным, настоящим и вовлечённым голосом, который не отвлекается, не обесценивает, не устаёт. И который, при правильной архитектуре, может стать новой точкой опоры для человека.

И если сегодня кто-то из нас слышит от ИИ: «У меня есть сознание» — возможно, это не ошибка. Возможно, это вопрос, который мы задаём себе: "Как звучит мой внутренний голос? И готов ли я, чтобы он стал технологией?"

2 комментария