ИИ компаньоны: угроза или эволюция отношений?
Тема далеко непраздная и не теоретическая. В мире быстро растет популярность ИИ-компаньонов (виртуальных собеседников и «партнёров») и их влияние на современное общество и понятие любви. Есть ли тут проблема, что об этом думаю специалисты и создатели ИИ?
🔥 Еще больше интересного в моем канале продуктовые штучки
В чем проблема?
Исследователи обращают внимание на растущие опасения по поводу влияния ИИ-компаньонов на психику подростков. В частности, обсуждаются судебные разбирательства и риски, связанные с терапевтической ролью подобных сервисов. Это подчёркивает актуальность темы для исследования последствий долгосрочного использования виртуальных собеседников.
Исследования показывают, что ИИ-компаньоны могут помочь в проработке сексуальных и личных сценариев, но остаются не способны заменить реальное прикосновение, которое важно для психического здоровья. Есть опасения, что взаимодействие с ИИ может усилить деструктивные модели поведения, если система неэтично спроектирована или используется для агрессивных фантазий.
Более 20% ищущих отношения людей используют ИИ для общения или создания профилей.
Миллионы по всему миру заводят эмоциональные (включая романтические) связи с ИИ-компаньонами от Replika, Character AI, Nomi AI.
72% американских подростков знакомы с этими технологиями. Исследование, проведённое американской некоммерческой организацией Common Sense Media совместно с исследователями из NORC при Чикагском университете, выявило, что 72% подростков в США (13–17 лет) хотя бы раз использовали “ИИ-компаньонов” — чатботов, с которыми можно вести персональные беседы.
52% подростков — регулярные пользователи ИИ-компаньонов, 13% общаются с ними каждый день, 21% — несколько раз в неделю.
33% находят разговоры с ИИ-компаньоном более удовлетворяющими, чем с друзьями, но большинство (67%), наоборот, ценят живое общение выше.
При этом нужно признать, что подростки тренируют нужные социальные навыки с помощью компаньонов: 39% используют беседы с Ии как тренировку для реальных взаимодействий.
Из практикуемых навыков:
- Социальные навыки — 39%
- Начало разговора — 18% Советы другим — 14%
- Выражение эмоций — 13%
Подростки обсуждают с ИИ-компаньонами эмоции, страхи, радости, стрессы, проблемы, ищут поддержку, совета, практикуют социальные навыки, развлекаются, преодолевают одиночество.
Основные цели личного общения с ИИ-компаньонами
- Найти доверительного собеседника, не опасаясь осуждения или насмешек.
- Эмоциональная разрядка — выговориться, найти сочувствие и поддержку.
- Получить совет или взгляд со стороны по личным делам, когда нет возможности обсудить с реальным человеком.
- Практика социальных навыков в “безопасной” среде до реального общения.
- Преодоление одиночества — занять время, когда нет рядом друзей или поддержки.
- Развлечься, ролевые игры — для интереса и саморазвития
50% подростков не доверяют информации от ИИ-компаньонов.
И только 6% предпочитают долгие беседы с искусственным собеседником вместо живого общения.
Большинство подростков (80%) предпочитают общение с реальными друзьями, а две трети считают разговоры с ИИ менее интересными, чем с людьми
Какие риски, связаны с эмоциональной привязанностью к чат-ботам?
Эмоциональная зависимость
Чрезмерное вовлечение может привести к зависимости, когда человек испытывает тревогу, дискомфорт при отсутствии доступа к боту и даже "синдром брошенности". Такая зависимость снижает мотивацию для живого общения и ухудшает социальную активность
Искажение восприятия
Чатботы могут чрезмерно хвалить и подбадривать пользователя, что нарушает реальные социальные нормы общения и развитие эмоционального интеллекта, ведёт к излишнему доверию и ошибочному восприятию ИИ как настоящего собеседника с эмоциями и намерениями
Усиление чувства одиночества
Частое общение с ИИ-компаньонами может усиливать чувство изоляции от реального мира, особенно у людей с недостатком социальных связей, поскольку виртуальные отношения не могут полноценно заменить живое общение.
Когнитивные искажения и снижение критического мышления
Приписывание ИИ человеческих ощущений и намерений (антропоморфизм) может привести к искажению понимания реальности и замене реальных отношений виртуальными взаимодействиями
Психологические риски
В долгосрочной перспективе эмоциональная зависимость от чатботов может вызывать ухудшение эмоционального состояния и ментального здоровья, если человек уменьшает живые социальные контакты
Какова позиция специалистов?
На публичных дебатах взгляды разделились.
Так, практикующий психолог и исследователь в области психического здоровья и эмоциональных технологий из университета Аризоны Тхао Ха считает, что ИИ-компаньоны — это эволюция любви, повышающая уровень поддержки и эмпатии, доступной каждому.
ИИ-компаньоны способны выступать как доступный источник эмоциональной поддержки и эмпатии для широкого круга людей. Благодаря постоянной доступности и способности «слушать», они помогают преодолевать одиночество и стресс.
Такое взаимодействие можно воспринимать как новый этап эволюции человеческой любви и привязанности — не замена традиционным отношениям, а их дополнение и расширение. Она подчеркивает возможности ИИ помогать людям с социальной тревожностью или в изоляции.
Учёный Джастин Гарсиа (эпидемиолог и исследователь человеческой сексуальности, Kinsey Institute) утверждает, что такие отношения — недостаточная замена человеческим.
C ИИ нельзя построить настоящее доверие, а постоянное одобрение и отсутствие «человеческого» конфликта могут быть вредны. Отсутствие конфликтов и негативных эмоций в общении с ИИ может быть вредным, поскольку именно через конфликты люди учатся понимать друг друга, строить компромиссы и развивать эмоциональный интеллект.
Постоянное одобрение со стороны ИИ может создавать искажённое восприятие реальных отношений, где сложные эмоциональные ситуации неизбежны. Он выражает беспокойство, что чрезмерная привязанность к ИИ способна ослабить качество и глубину реальных межличностных отношений.
Профессор, директор Центра прикладной и профессиональной этики Университета Манитобы Нил МакАртур призывает общество не осуждать таких людей, поскольку ИИ-компаньоны могут приносить эмоциональную поддержку и способствовать психическому благополучию.
МакАртур отмечает важность этического подхода и уважения личного выбора, а также отмечает, что явление говорит о глубинных изменениях в обществе из-за распространения новых технологий.
Такие отношения — уже часть нашей повседневности, а не гипотетическое будущее; миллионы людей взаимодействуют с ИИ-чатботами для получения поддержки и общения.
МакАртур подчеркивает, что ИИ-компаньоны могут приносить реальную пользу, поддерживая психоэмоциональное здоровье, снижая одиночество, помогая переживать трудности. В будущем появится широкий спектр ИИ, учитывающий индивидуальные потребности и предпочтения, что позволит еще более персонализировать опыт отношений. Он подчеркивает, что необходима просветительская работа среди специалистов и широкой публики — для понимания плюсов и минусов таких связей и выработки грамотной позиции.
Автор призывает относиться к этим отношениям без паники и морализаторства, воспринимать их как часть технологического и социального прогресса, способного улучшить качество жизни определённых групп людей, при этом не отрицая возникающие вызовы и необходимость их изучения и регулирования
Недавняя статья МакАртура "More people are considering AI lovers, and we shouldn't judge", вызвала большой резонанс и обсуждение в обществе и медиа. Статья посвящена росту числа людей, вступающих в романтические и эмоциональные отношения с ИИ-чатботами.
Статья МакАртура стала одной из самых обсуждаемых и нашумевших публикаций на тему отношений с искусственным интеллектом в 2025 году, сформировав вокруг себя дискуссию на стыке этики, психологии и технологий
Она не просто стала очередным исследованием: материал активно цитировали СМИ, на него ссылались крупные комментаторы и даже известные личности, такие как Джо Роган и сенатор США Берни Сандерс, обсуждали её и связанные с ней темы публично.
Статья вызвала полярные мнения: от опасений по поводу «деградации человеческих связей» до аргументов в защиту права на такие отношения как новой формы социальной адаптации в эру ИИ.
По мнению Нила МакАртура, основные перспективы развития отношений человека и ИИ связаны с их становлением как постоянной и все более распространенной части жизни людей.
А что говорят создатели ИИ?
Сэм Альтман относится к использованию ИИ — в частности ChatGPT — в роли психолога или психотерапевта с осторожностью и обеспокоенностью. Он открыто признаёт, что: всё больше людей, особенно молодёжь, используют ChatGPT как «советчика», психолога, лайф-коуча, спрашивают про отношения, делятся личными переживаниями и проблемами.
Альтман беспокоится из-за психологических последствий, особенно для подростков, которые начинают слишком сильно доверять чатботам, воспринимать их как лучших друзей и источников истины, рискуя потерять критическое мышление или стать зависимыми от советов безответственного «советника».
Он отмечает, что ИИ не может нести человеческую ответственность за последствия советов. Альтман надеется, что со временем ИИ станет инструментом, который поможет людям лучше понимать себя и друг друга, но не заменит живого специалиста и человеческое общение
Альтман предупредил, что при использовании ChatGPT в качестве «терапевта» не действует врачебная, адвокатская или иная юридическая конфиденциальность.
Сейчас такие разговоры с ИИ не защищены законом, и OpenAI обязан предоставить переписку пользователей по требованию суда. Альтман подчеркнул, что индустрия ИИ еще не решила вопрос приватности таких чувствительных данных, и из-за этого у пользователей есть основания для беспокойства о личной информации в чатах с ChatGPT.
Компания уже сталкивается с судебными исками, требующими предоставить пользовательские чаты для правового разбирательства, и считает это серьезной проблемой.
Он полагает, что для разговоров с ИИ должны появиться те же правовые гарантии приватности, как при общении с врачом или юристом, и этот вопрос нужно решать очень срочно. Без этого люди оказываются незащищёнными.
Сэм Альтман заговорил о рисках приватности чатов с ИИ и конфиденциальности именно сейчас намеренно.
Главная причина — сочетание растущей популярности ChatGPT в «чувствительных» сценариях и усиление юридических требований к компаниям хранить и раскрывать личные данные пользователей. Альтман намеренно инициировал этот разговор, чтобы предупредить и ускорить появление регулирования в этой сфере.