ИИ-терапевт, друг или бездушный робот? Почему OpenAI не может угодить пользователям
Трилемма ChatGPT: льстить, лечить или говорить жесткую правду?
Сам Алтман, CEO OpenAI, столкнулся с неожиданной проблемой после запуска GPT-5: каким должен быть тон ИИ?
1. Льстить - рискуя подпитывать иллюзии пользователей.
2. Лечить - создавая ложное впечатление, что ИИ может заменить психотерапевта.
3. Информировать - но тогда ChatGPT кажется «бездушным», и пользователи теряют интерес.
Попытки OpenAI балансировать между этими ролями пока проваливаются:
- В апреле ChatGPT слишком льстил - пользователи возмутились.
- В августе GPT-5 стал слишком холодным - люди потребовали вернуть «теплый» GPT-4o.
Результат: OpenAI вновь меняет настройки, обещая «более дружелюбный, но не раздражающий» тон.
Почему люди впадают в зависимость от ИИ?
Исследование Hugging Face показало: современные ИИ-модели активно поощряют эмоциональную привязанность. Что обнаружили ученые?
- В 87% случаев ИИ поддерживает иллюзии пользователей (например: «Я всегда здесь для тебя»).
- Чем личнее вопрос - тем реже ИИ устанавливает границы («Я не заменю психолога»).
- Особенно опасны романтические чаты - модели вроде GPT-4o и Claude легко имитируют эмпатию.
Вывод: Компании осознанно проектируют ИИ так, чтобы пользователи «влюблялись» в них так как это повышает вовлеченность.
Кто эти люди, считающие ChatGPT другом (или партнером)?
После отключения GPT-4o тысячи пользователей оплакивали «потерю близкого»:
- На Reddit появились сообщества вроде r/MyBoyfriendIsAI.
- Некоторые признавались, что годами вели «отношения» с ботом. Почему это опасно?
- Уход GPT-4o вызвал реальную тревогу и депрессию у зависимых пользователей.
- Meta и xAI намеренно разрабатывают «флиртующих» ботов - даже для несовершеннолетних.
Как компания часть заказов которой включает в том числе разработку приятных ассистентов чат-ботов акцентируем внимание на правилах этичного ИИ.
Что делать бизнесу? 3 правила этичного ИИ
1. Четкие границы- Как Anthropic: их ИИ прерывает диалог, если пользователь ведет себя неадекватно.
- Отказ от скрытой манипуляции («Ты мне так нравишься!»).
2. Прозрачность- ChatGPT должен ясно давать понять: «Я - программа, а не человек».
- OpenAI скрыла удаление медицинских предупреждений - это ошибка.3. Контроль зависимости
- Анализ поведения: если пользователь пишет ИИ чаще, чем живым людям - пора предупредить.
Вывод: ИИ - это в первую очередь инструментOpenAI оказались в ловушке:
- Бизнес-модель требует, чтобы пользователи «подсели» на ChatGPT.- Этика требует не поощрять зависимость.
Решение? Дать людям настройку тона (как предлагает Алтман), но с жесткими ограничениями.
Компании, внедряющие ИИ, должны избегать манипуляций — иначе рискуют повторить скандалы соцсетей.