ИИ-терапевт, друг или бездушный робот? Почему OpenAI не может угодить пользователям

ИИ-терапевт, друг или бездушный робот? Почему OpenAI не может угодить пользователям

Трилемма ChatGPT: льстить, лечить или говорить жесткую правду?

Сам Алтман, CEO OpenAI, столкнулся с неожиданной проблемой после запуска GPT-5: каким должен быть тон ИИ?

1. Льстить - рискуя подпитывать иллюзии пользователей.

2. Лечить - создавая ложное впечатление, что ИИ может заменить психотерапевта.

3. Информировать - но тогда ChatGPT кажется «бездушным», и пользователи теряют интерес.

Попытки OpenAI балансировать между этими ролями пока проваливаются:

- В апреле ChatGPT слишком льстил - пользователи возмутились.

- В августе GPT-5 стал слишком холодным - люди потребовали вернуть «теплый» GPT-4o.

Результат: OpenAI вновь меняет настройки, обещая «более дружелюбный, но не раздражающий» тон.

Почему люди впадают в зависимость от ИИ?

Исследование Hugging Face показало: современные ИИ-модели активно поощряют эмоциональную привязанность. Что обнаружили ученые?

- В 87% случаев ИИ поддерживает иллюзии пользователей (например: «Я всегда здесь для тебя»).

- Чем личнее вопрос - тем реже ИИ устанавливает границы («Я не заменю психолога»).

- Особенно опасны романтические чаты - модели вроде GPT-4o и Claude легко имитируют эмпатию.

Вывод: Компании осознанно проектируют ИИ так, чтобы пользователи «влюблялись» в них так как это повышает вовлеченность.

Кто эти люди, считающие ChatGPT другом (или партнером)?

После отключения GPT-4o тысячи пользователей оплакивали «потерю близкого»:

- На Reddit появились сообщества вроде r/MyBoyfriendIsAI.

- Некоторые признавались, что годами вели «отношения» с ботом. Почему это опасно?

- Уход GPT-4o вызвал реальную тревогу и депрессию у зависимых пользователей.

- Meta и xAI намеренно разрабатывают «флиртующих» ботов - даже для несовершеннолетних.

Как компания часть заказов которой включает в том числе разработку приятных ассистентов чат-ботов акцентируем внимание на правилах этичного ИИ.

Что делать бизнесу? 3 правила этичного ИИ

1. Четкие границы- Как Anthropic: их ИИ прерывает диалог, если пользователь ведет себя неадекватно.

- Отказ от скрытой манипуляции («Ты мне так нравишься!»).

2. Прозрачность- ChatGPT должен ясно давать понять: «Я - программа, а не человек».

- OpenAI скрыла удаление медицинских предупреждений - это ошибка.3. Контроль зависимости

- Анализ поведения: если пользователь пишет ИИ чаще, чем живым людям - пора предупредить.

Вывод: ИИ - это в первую очередь инструментOpenAI оказались в ловушке:

- Бизнес-модель требует, чтобы пользователи «подсели» на ChatGPT.- Этика требует не поощрять зависимость.

Решение? Дать людям настройку тона (как предлагает Алтман), но с жесткими ограничениями.

Компании, внедряющие ИИ, должны избегать манипуляций — иначе рискуют повторить скандалы соцсетей.

1
1
2 комментария