Одна строчка в промпте подняла качество ответов на 47%

Ты спрашиваешь у ChatGPT "как открыть кофейню?" — он выдаёт водянистую простыню на 3 экрана. Бизнес-план, маркетинг, поставщики — всё общее, как из Википедии. А ты сидишь и думаешь: "Блин, мне конкретно в моей ситуации что делать?"

Одна строчка в промпте подняла качество ответов на 47%

Проблема не в модели. Проблема в том, что ты не сказал самое важное: у тебя 500 тысяч рублей или 5 миллионов? Опыт в общепите есть? Район спальный или центр? Модель гадает вслепую и выдаёт усреднённую кашу.

Есть простой трюк, который заставляет LLM сначала спросить всё нужное, а потом дать ответ под твою ситуацию. Называется FATA (First Ask Then Answer). Добавляешь 2 предложения в промпт — и качество ответов взлетает на 28-47%. Проверено на исследовании Beijing Information Science and Technology University (2025).

Как это работает

Обычный сценарий — это как прийти к врачу и сказать "болит голова, дайте таблетку". Врач не знает: у тебя мигрень, давление, или ты просто вчера перепил. Он может дать парацетамол и надеяться на лучшее.

Хороший врач сначала спрашивает: когда началось? Где именно болит? Есть хронические болезни? Какие препараты принимаешь? И только после этого назначает лечение.

FATA заставляет LLM вести себя как хороший врач. Вместо того чтобы гадать, модель задаёт структурированные вопросы по 5 измерениям:

Контекст — кто ты, что сейчас (возраст, опыт, роль) Ограничения — что нельзя (бюджет, сроки, правила) Предпочтения — что хочешь (цели, приоритеты) Окружение — внешние факторы (конкуренты, локация, зависимости) История — что было раньше (опыт, ошибки, бэкграунд)

После твоих ответов модель выдаёт решение под твою ситуацию. Не общее "как открыть кофейню", а "вот что делать тебе с твоим бюджетом в твоём районе".

Одна строчка в промпте подняла качество ответов на 47%

Готовый промпт

Копируй и вставляй после любого запроса:

Прежде чем давать советы, задай мне вопросы как эксперт в этой области, чтобы выявить недостающую информацию. Структурируй вопросы чётко и кратко, с примерами для понимания. Как эксперты на консультациях — сначала собирают информацию, потом дают решение. После моих ответов дай персонализированные рекомендации. Если вся информация уже есть — сразу переходи к решению.

Пример

Твой запрос: "Хочу открыть кофейню в спальном районе Москвы" + промпт выше

Что делает модель: Задаёт 5-7 вопросов:

  • Опыт в общепите? Будешь управлять сам?
  • Бюджет на запуск? Сроки?
  • Формат (to-go, посидеть, коворкинг)? Ценовой сегмент?
  • Конкретный район? Трафик? Конкуренты рядом?
  • Пробовал что-то подобное раньше?

Ты отвечаешь

Модель выдаёт: План под твою ситуацию с цифрами, этапами, конкретными рисками и действиями.

Разница огромная. Вместо абстрактного "составьте бизнес-план" — чек-лист из 10 шагов с ценами поставщиков для твоего района и расчётом точки безубыточности.

Попробуйте сами — вот как выглядит ответ ChatGPT с этим методом:

Одна строчка в промпте подняла качество ответов на 47%

Цифры

Исследователи из Beijing Information Science and Technology University (2025) протестировали FATA на 300 сценариях в 12 индустриях (медицина, финансы, бизнес, право). Три модели: GPT-4o, Claude Opus, DeepSeek R1.

Сравнивали три варианта:

  • Baseline — обычный запрос без деталей
  • Expert — запрос с полной информацией (идеальный случай)
  • FATA — модель сама собирает информацию через вопросы

Результат:

  • FATA vs обычный запрос: +28-47% качества
  • FATA vs идеальный запрос: всего -2-5% разницы
  • Стабильность ответов: +52-68% (модель реже несёт чушь)

То есть FATA почти догоняет ситуацию, когда ты сам идеально всё описал. Но без геморроя вспоминать все детали.

Одна строчка в промпте подняла качество ответов на 47%

Почему это работает

Пользователи не знают, что важно для эксперта. Это как студент, который пришёл к научруку и говорит "хочу диплом про AI". Научрук знает, что нужно уточнить: какая область AI? Есть бэкграунд по математике? Сроки? Доступ к данным?

LLM видела тысячи таких диалогов. Она знает, какие вопросы задают профи. FATA заставляет модель показать этот чек-лист тебе. Это как открыть голову эксперта и увидеть, о чём он думает.

Китайские исследователи называют это "expertise-information gap" — разрыв между тем, что знает эксперт, и тем, что понимает новичок. FATA его закрывает.

Когда не работает

Честно: метод не универсален.

Нужны ответы от тебя. Если ты пропустишь вопросы или ответишь "не знаю" — качество упадёт. Модель не телепат.

Удлиняет диалог. Вместо одного запроса — минимум два. Для простых вопросов типа "что такое машинное обучение?" это лишнее.

Зависит от знаний модели. Если LLM слабо разбирается в твоей нише (например, узкая B2B-индустрия), вопросы могут быть поверхностными.

Лайфхаки

Минималистичная версия — если не хочешь длинный список вопросов:

{твой вопрос} Перед ответом задай 3 самых важных уточняющих вопроса. Коротко, с примерами ответов.

Двойной эксперт — для сложных решений:

{твой вопрос} Задай вопросы с двух точек зрения: 1. Как практик в этой области 2. Как финансист/юрист/риск-менеджер После моих ответов — интегрированное решение.

Комбо с другими техниками:

  • Сначала FATA собирает контекст → потом RAG (поиск по базе знаний) с точным запросом
  • FATA + Chain-of-Thought (пошаговое рассуждение) для сложных задач
  • FATA на входе → короткий контекст на выходе (экономия токенов)

Где применять

FATA рулит везде, где нужна консультация:

Бизнес — запуск проекта, маркетинг, наём, стратегия Карьера — смена профессии, переговоры о зарплате, резюме Финансы — инвестиции, планирование бюджета, налоги Здоровье — выбор врача, второе мнение, план тренировок Обучение — выбор курса, учебный план, подготовка к экзаменам

Везде, где ответ зависит от твоей ситуации, а не от общих правил.

1
Начать дискуссию