Если ответы ChatGPT стали более поверхностными, он мог решить, что вы несовершеннолетний
OpenAI начала внедрять систему автоматического определения возраста пользователей ChatGPT. Если модель посчитает, что вы несовершеннолетний, она начнёт отвечать с ограничениями: избегать сложных тем, не обсуждать чувствительные вопросы, не давать «взрослых» советов и в целом вести себя осторожнее. Проблема в том, что система делает вывод на основе только текста диалога — без реальной верификации. Поэтому теперь возможны ситуации, когда взрослый пользователь получает «урезанный» ChatGPT просто потому, что писал «как подросток».
Это объясняет странности, которые в последнее время замечают некоторые пользователи: ChatGPT отказывается обсуждать серьёзные темы, даёт поверхностные советы или говорит уклончиво. Как выяснилось, OpenAI действительно внедряет механизм «предсказания возраста» и включает подростковый режим, если не уверена, что пользователь совершеннолетний.
Механизм уже применяется в США, Канаде и Великобритании и будет расширяться на другие страны. В интерфейсе у части пользователей в этих странах появился раздел, где можно подтвердить возраст или узнать, какой режим активен. Однако в России и большинстве других регионов эти функции пока недоступны, они внедряются поэтапно и скрыты в настройках.
Тем не менее, понять, какой режим включён, можно по косвенным признакам. Если активен подростковый режим, ChatGPT будет:
- Отказываться обсуждать темы, связанные с сексом, порнографией, самоубийством или самоповреждением — даже в нейтральном или медицинском контексте;
- Избегать этических или эмоциональных советов, особенно если вы формулируете вопрос вроде «мне плохо, что делать?»;
- Ссылаться на родителей, специалистов или службы поддержки;
- Уклоняться от шуток на грани или любых флиртующих реплик;
- Иногда прямо указывать, что не может ответить на вопрос, если пользователь младше 18 лет.
OpenAI объясняет эти изменения желанием повысить безопасность несовершеннолетних. Особенно после случая в США, где подросток погиб, и семья подала в суд, утверждая, что ChatGPT мог повлиять на его действия. Теперь модель не только фильтрует потенциально опасные темы, но и корректирует стиль общения — иногда это приводит к тому, что взрослые пользователи ощущают снижение качества диалога.
В перспективе OpenAI планирует сделать прогноз возраста стандартной функцией безопасности. Но пока важно понимать: если ChatGPT вдруг стал «осторожнее», это может быть не проблема модели, а попытка защитить пользователя — пусть и на основе довольно приблизительной оценки возраста.