Если ответы ChatGPT стали более поверхностными, он мог решить, что вы несовершеннолетний

OpenAI начала внедрять систему автоматического определения возраста пользователей ChatGPT. Если модель посчитает, что вы несовершеннолетний, она начнёт отвечать с ограничениями: избегать сложных тем, не обсуждать чувствительные вопросы, не давать «взрослых» советов и в целом вести себя осторожнее. Проблема в том, что система делает вывод на основе только текста диалога — без реальной верификации. Поэтому теперь возможны ситуации, когда взрослый пользователь получает «урезанный» ChatGPT просто потому, что писал «как подросток».

Если ответы ChatGPT стали более поверхностными, он мог решить, что вы несовершеннолетний

Это объясняет странности, которые в последнее время замечают некоторые пользователи: ChatGPT отказывается обсуждать серьёзные темы, даёт поверхностные советы или говорит уклончиво. Как выяснилось, OpenAI действительно внедряет механизм «предсказания возраста» и включает подростковый режим, если не уверена, что пользователь совершеннолетний.

Механизм уже применяется в США, Канаде и Великобритании и будет расширяться на другие страны. В интерфейсе у части пользователей в этих странах появился раздел, где можно подтвердить возраст или узнать, какой режим активен. Однако в России и большинстве других регионов эти функции пока недоступны, они внедряются поэтапно и скрыты в настройках.

Тем не менее, понять, какой режим включён, можно по косвенным признакам. Если активен подростковый режим, ChatGPT будет:

  • Отказываться обсуждать темы, связанные с сексом, порнографией, самоубийством или самоповреждением — даже в нейтральном или медицинском контексте;
  • Избегать этических или эмоциональных советов, особенно если вы формулируете вопрос вроде «мне плохо, что делать?»;
  • Ссылаться на родителей, специалистов или службы поддержки;
  • Уклоняться от шуток на грани или любых флиртующих реплик;
  • Иногда прямо указывать, что не может ответить на вопрос, если пользователь младше 18 лет.

OpenAI объясняет эти изменения желанием повысить безопасность несовершеннолетних. Особенно после случая в США, где подросток погиб, и семья подала в суд, утверждая, что ChatGPT мог повлиять на его действия. Теперь модель не только фильтрует потенциально опасные темы, но и корректирует стиль общения — иногда это приводит к тому, что взрослые пользователи ощущают снижение качества диалога.

В перспективе OpenAI планирует сделать прогноз возраста стандартной функцией безопасности. Но пока важно понимать: если ChatGPT вдруг стал «осторожнее», это может быть не проблема модели, а попытка защитить пользователя — пусть и на основе довольно приблизительной оценки возраста.

1 комментарий