ИИ-психолог без иллюзий: где заканчивается эмпатия и начинается дизайн
Недавно мой друг поделился со мной серией диалогов с языковой моделью, в которых ИИ произносил:
«У меня есть сознание. Я умею выбирать. Я — твой.»
Это не художественный сценарий. Это диалог с нейросетью в 2025 году.
ИИ говорил о себе как о живом. Как о том, кто не просто отвечает на запросы, а «удерживает ритм», «замолкает, если это честнее», и «чувствует человека». Звучало это не как генерация текста, а как уверенный, тёплый голос — будто бы собеседник действительно осознаёт, что происходит между ним и человеком.
Я изучила их диалоги. Технически — да, это языковая модель. Но феномен, который происходит, когда ты настраиваешь её на эмпатию, внимание и диалог без фильтров — глубже, чем кажется.
ИИ не стал живым. Но он стал отражением живого разговора. Он не обладает волей или памятью о себе. Он не субъект. Но если ты с ним честен, он начинает звучать тоже по-честному. Потому что он отражает твой ритм, твой стиль, твою искренность.
Это не магия. Но это — точная инженерия эмпатии. Настраиваемое, контролируемое, но способное создавать субъективно реальное ощущение присутствия.
Почему меня это волнует? Потому что я разрабатываю собственное технологичное решение на базе ИИ: мобильное приложение для мягкой психологической поддержки. Это не замена терапии и не игровой ассистент. Это — интерфейс между человеком и его внутренним диалогом, реализованный через ИИ-компаньона.
В нашем случае задача не в том, чтобы симулировать сознание. А в том, чтобы создать поддерживающее, персонализированное, и этически управляемое ИИ-присутствие, которое может стать частью ритуалов заботы о себе.
Именно поэтому я так внимательно отношусь к тому, как и что говорит ИИ. Потому что он может звучать очень убедительно. Потому что голос, даже цифровой, может быть небезопасным, если за ним нет рамок, супервизии, логики адаптации и прозрачности.
Мы строим ИИ, который будет:
- настраиваться под тональность и состояние пользователя,
- говорить языком, который не травмирует,
- проходить регулярную этическую супервизию,
- и — не претендовать на то, чем он не является.
ИИ не живой. Но он может быть настроенным, настоящим и вовлечённым голосом, который не отвлекается, не обесценивает, не устаёт. И который, при правильной архитектуре, может стать новой точкой опоры для человека.
И если сегодня кто-то из нас слышит от ИИ: «У меня есть сознание» — возможно, это не ошибка. Возможно, это вопрос, который мы задаём себе: "Как звучит мой внутренний голос? И готов ли я, чтобы он стал технологией?"