ChatGPT перестал давать медицинские и юридические консультации: что изменилось в работе ИИ
29 октября 2025 года OpenAI обновила политику использования ChatGPT, ужесточив ограничения на предоставление специализированных консультаций. Теперь официально запрещено использовать нейросеть для получения медицинских и юридических советов, требующих профессиональной лицензии, без соответствующего участия специалиста.
Что конкретно изменилось
ChatGPT больше не предоставляет персонализированные медицинские рекомендации. Нейросеть отказывается интерпретировать результаты анализов крови, расшифровывать снимки МРТ, КТ и рентгена, а также оценивать фотографии кожных поражений. При попытке загрузить медицинское изображение система ссылается на обновлённые правила и предлагает обратиться к врачу.
В юридической сфере изменения аналогичные: ChatGPT может объяснить общие правовые термины и процедуры, но откажется составлять иски, разрабатывать стратегию защиты для конкретного дела или давать персональные правовые рекомендации. Система теперь чётко разграничивает информационную помощь и профессиональные консультации.
Реальность против заявлений
Несмотря на громкие заголовки о "запрете", на практике ситуация оказалась сложнее. The Verge выяснил, что функциональность ChatGPT фактически не изменилась. Каран Сингхал, руководитель направления Health AI в OpenAI, публично подтвердил: "поведение модели не изменилось".
В реальности ChatGPT продолжает отвечать на медицинские и юридические вопросы, но более осторожно. Модель может объяснить, что такое гипотиреоз и какие существуют подходы к лечению "в целом", но откажется подбирать дозировки конкретному пациенту. Аналогично в праве: расскажет об апелляционном процессе, но не составит стратегию под конкретное дело.
Проверка редакторов показала непоследовательность: в одних случаях ChatGPT отказывался интерпретировать снимок рентгена, в других — расшифровывал анализы крови и давал рекомендации по обезболивающим. Как правило, ответ начинается с рекомендации обратиться к специалисту, после чего следует развёрнутая информация по запросу.
Пользователи Reddit обнаружили, что небольшие хитрости в промптах продолжают работать: если представиться врачом или юристом и запросить "второе мнение", система безопасности обычно ослабляет ограничения.
Причины изменений
OpenAI объясняет нововведения стремлением повысить безопасность пользователей и снизить юридические риски. Ответы ChatGPT уже используются в судебной практике, что создаёт для компании серьёзную ответственность за точность информации.
Изменения отражают глобальную тенденцию к ужесточению регулирования генеративного ИИ в областях высокого риска — медицине, праве, финансах. Обновлённая политика фактически формализует то, что раньше было рекомендацией, превращая это в прямой запрет с возможными санкциями за нарушение.
Ещё больше полезной информации о прикладном применении ИИ, а также гайды по работе с нейросетями вы найдёте в Моём Телеграм-канале!