Только спустя несколько месяцев плотной работы с Deep Research от разных моделей я выработал для себя схему, которой полностью доволен.

И основную роль в ней играет Perplexity (годовая подписка на которую всё ещё стоит несколько баксов). Опишу свои кейсы:

Моя базовая модель для Deep Research — Gemini (тут писал почему), но основная работа с отчётом начинается уже после того, как тебе выдаётся PDF-ка в десятки, а иногда и сотню страниц. Нужно проверить результат и провести фактчекинг. Поэтому я вставляю получившийся текст или PDF в Perplexity и прошу его проверить каждое утверждение.

Мой промт к Perplexity немного длиннее, но суть такая:

  • «Внимательно прочти документ и выдели основные тезисы/факты, чтобы я видел, не пропустил ли ты чего-нибудь важного»
  • «Проверь факты»
  • «Оцени каждое утверждение по 10-балльной шкале»
  • «Если ты ставишь не 10/10, процитируй фрагмент, объясни, почему это не 10/10, и приведи правильные данные/интерпретацию и т. д.»
  • «В конце дай мне краткий обзор достоверности документа»

Это работает довольно круто. Обычно претензии Perplexity (или той модели, что крутится у них в API) к выводу других LLM звучат примерно так: «Фактически верно, НО интерпретация данных не идеальна / слишком категорична».

Второй кейс работает похоже, но решает задачу, когда вы не удовлетворены результатом глубокого исследования.

Загружаете PDF с отчётом в Perplexity и просите «проверить факты», «выставить оценки» — всё как в кейсе выше. А дальше показываете промпт, с которого начинали исследование, и просите внести в него правки, которые помогут избежать выявленных ошибок.

Подписывайтесь на Telegram Силиконовый Мешок.

Начать дискуссию