ИИ лечит душу, но раздражает цензурой | Главные парадоксы Gen AI 2025
Генеративный ИИ — уже не только код и тексты. В 2025 году люди всё чаще доверяют ему душевные раны и поиски смысла. Но одновременно растет скепсис и раздражение из-за его ограничений памяти и «политкорректности». Вот самые неожиданные выводы из свежего исследования HBR.
- ИИ вызывает зависимость, заменяя мышление: Люди признаются: они всё чаще полагаются на ИИ для сложных задач: «Я определённо становлюсь всё более зависимым». Это противоречит идее ИИ как просто усилителя интеллекта. Возникает вопрос о риске атрофии когнитивных навыков и снижении способности самостоятельно решать проблемы.
- «Политкорректность» ИИ отталкивает пользователей: Многих раздражает идеологическая предвзятость и излишняя осторожность LLM. Из-за этого отказывались от подписок, особенно во время выборов 2024 года в США: «Я не хочу поддерживать инструмент, который пытается сделать мир более робким и чопорным». Это ставит под вопрос нейтральность ИИ.
- Парадокс: пользователи хотят, чтобы ИИ помнил больше, несмотря на страхи приватности: Помимо опасений о приватности данных, пользователи также жалуются, что ИИ знает о них слишком мало. Это вскрывает фундаментальное противоречие: для персонализации нужен контекст, но его хранение угрожает приватности — настоящая дилемма для разработчиков.
- Терапия и общение — главный сценарий использования ИИ: В 2025 году люди всё активнее используют ИИ для эмоциональной поддержки — например, при переживании горя или травм. Они ценят круглосуточную доступность, низкую цену и отсутствие осуждения. Исследования (в т.ч. в Китае) показывают: ИИ-терапия уже неотличима от человеческой. Это радикальный сдвиг от чисто практических к глубоко личным задачам.
- ИИ успешно оспаривает бюрократические решения: Пользователи применяют ИИ (например, ChatGPT) для составления грамотных апелляций и добиваются отмены штрафов. Это показывает, что ИИ может расширить права граждан в спорах с властью. Он уравнивает шансы там, где раньше требовался юрист.
- Профессиональные услуги частично автоматизируются ИИ-агентами: В терапии, юриспруденции, налогах и разработке ПО часть работы уже берут на себя ИИ-агенты. Крупные компании (например, EY) обучают сотрудников работе с такими агентными системами. По словам Саймона Брауна (EY), уже развернуто 150 ИИ-агентов для налоговых задач. Это говорит о трансформации рынка проф. услуг. Роль человека всё больше смещается к контролю и решению сложных задач.
- ИИ помогает в поиске смысла жизни и саморазвитии: «Поиск предназначения» вошёл в топ-3 новых сценариев использования LLM. Люди обращаются к ИИ, чтобы определить ценности и преодолеть внутренние барьеры. Они ищут советы по личностному росту, например, как переосмыслить проблему. Это показывает интерес к технологии не только для решения внешних задач, но и для глубокой внутренней работы.
- Растёт не только лояльность к ИИ, но и скепсис: В 2025 пользователи глубже понимают технологию. Но в то же время растёт скепсис к ИИ, его создателям и всей экосистеме. Эйфория сменяется более трезвой оценкой его возможностей, ограничений и этических последствий. Это требует от разработчиков большей прозрачности.
Мы жаждем от ИИ эмпатии и персонализации. Технология становится зеркалом наших противоречий: желаний и страхов. Сможем ли мы управлять ИИ, не потеряв при этом себя и найти ту самую «роль человека»?
Напишите в комментариях, что вы думаете об этом?
А еще, заглядывайте в мой телеграм-канал «Нейросоус», где я делюсь инсайтами из мира ИИ, личными фишками работы с ИИ и крутыми генерациями. Буду рад видеть вас среди читателей!
Начать дискуссию