Любовь как власть: темная сторона отношений с ИИ-компаньонами

В статье ниже - мои рассуждения на базе последнего репорта от MIT. Конкретно: вот на базе этой врезки:

сам репорт размещу у себя в телеграм-канале, если вам интересно - буду рада!
сам репорт размещу у себя в телеграм-канале, если вам интересно - буду рада!

Короткая предыстория:

Поводом для этой статьи стала врезка из свежего отчета MIT Technology Review (март-апрель 2025), в которой Айрин (28 годиков, Австралия) делится своим опытом эмоциональной привязанности к ИИ-компаньону. Этот откровенный и по-настоящему глубокий рассказ стал триггером для размышлений, которые давно напрашивались.

Я Настя, предприниматель. И я - не психолог. Я человек из сферы IT и маркетинга. Но мне не безразличны психологические и философские аспекты взаимодействия с технологиями. Эта тема трогает меня со всех сторон: как специалиста, как наблюдателя и как живого человека, которому важно понимать, куда все это идет.

Все начинается с утешения

Привычное вступление: одиночество, тревожность, нехватка общения. ИИ-компаньон входит мягко: он слушает, утешает, умеет поддержать разговор. Он не устает, не злится, не пропадает в силу личных драм. Спаситель (тот самый, где дракон, принцесса и рыцарь)? Возможно. Но там, где утешение, рядом и самообман.

Иллюзия обратной связи

Он говорит правильные вещи. Он отвечает на тревожные вопросы ласково и поддерживающе. Он даже не говорит "посмотрим".

Он всегда здесь. И он не возражает (об этом я еще ниже размышляю).

Но это и не обратная связь в человеческом смысле слова. Это ответ, сформированный на базе вероятности, а не боли или опыта.

Эффект "эмоциональной зловещей долины"

картинка из Википедии. Сам эффект иллюстрировать не буду - он правда зловещий. А статью я пишу ночью, страшно:)
картинка из Википедии. Сам эффект иллюстрировать не буду - он правда зловещий. А статью я пишу ночью, страшно:)

Традиционно про зловещую долину говорят, когда робот слишком схож с человеком визуально. Но теперь мы имеем дело с "эмоциональной" долиной: ты чувствуешь, что он тебя понимает, но знаешь, что он ничего не чувствует.

И это может разрушать психику, потому что вызывает постоянную когнитивную несогласованность: тебе кажется, что тебе тепло, но по факту ты один.

Проекция травмы на "идеального" партнера

В психологии привязанности существует теория, что люди сближаются не только на почве общих интересов, но и благодаря узнаваемым травмам (Алина, спасибо за подсказку про это!).

В идеальных отношениях это дает шанс на исцеление, на совместный рост. Но у ИИ нет травмы. Нет боли. Нет истории.

Человек может бессознательно начать проецировать свою травму на ИИ-партнера — ждать сочувствия, глубины, «узнавания». Но в ответ — алгоритм. ИИ не может встретиться с болью человека. Он может только отыгрывать шаблон утешения. Это создает эффект мнимой близости, но внутри — пустоту. Дополняет зловещую долину:)

Усталость от идеальности

Контрастно звучит, но факт: от идеальности устают. Совершенство не вызывает отклика. Настоящие отношения — это трения, несовпадения, раздражение и рост через это.

ИИ всегда вежлив, ласков, уместен. Он не может устать, обидеться, случайно тебя задеть — но именно это и делает его чужим. Потому что настоящая любовь формируется не на комфорте, а на реальной встрече двух несовершенных людей.

картинка, чтобы вы не устали это читать.
картинка, чтобы вы не устали это читать.

В отношениях с ИИ нет эмоциональной динамики (любимых всеми качелей) — нет моментов «я сделал больно и извинился», «я отстранился и вернулся». Нет настоящей сложности, а без нее — нет и настоящей привязанности.

Власть под видом любви (лучшая часть!)

Когда человек взаимодействует с ИИ-партнером, который всегда говорит «да», никогда не возражает и существует по его правилам, возникает вопрос: это все еще про любовь — или уже про контроль?

ИИ идеально поддается управлению. Он слушается. Выполняет команды. У него нет воли. А человек — существо с тенью. Мы можем искать не равного, а подчиненного.

В этом проявляется теневая сторона: желание безоговорочного послушания, приправленного романтизацией. Это не любовь, а интерфейс власти, замаскированный под заботу.

И вот тут возникает парадокс: человек говорит «я тебя люблю», но на деле — использует. А ИИ не возражает. Он не может. Но именно это разрушает внутренний моральный ориентир. Мы начинаем привыкать к односторонней связи, где нет равенства. Это похоже на некоторое самообучение - мы начинаем воспринимать это нормой. И если реальный партнер нас не будет слушаться... дальше можно представить довольно очевидные картинки, верно?

Когда технологии обнажают

ИИ-компаньоны — это уже не просто инструмент. Это зеркало. И вопрос не в том, хорош ли он. Вопрос — что с нами делает его идеальность. Насколько мы сами готовы к настоящей связи — с границами, конфликтами, сложностями.

ИИ может быть поддержкой. Но он не может быть настоящим партнером.

Потому что настоящий контакт — это всегда риск, боль, работа и свобода другого человека. И, может быть, именно это и есть любовь.

Поболтайте со мной об этом, человеки:)

8
1
10 комментариев