Nova Sapiens

+24
с 2023

Эксперт по нейросетям для работы и бизнеса @ainovasapiens

13 подписчиков
1 подписка

Попросил ChatGPT разобрать бизнес-идею для питча инвесторам. Получил 3 абзаца общих слов про "перспективы" и "риски". Добавил в промпт одно предложение про ставки — модель выдала структурированный отчёт на 5 страниц: с приоритетами на 30/90 дней, финансовыми проекциями, оценкой рисков и митигацией. Ответ стал длиннее в 5 раз и реально годным для пр…

Добавил одно предложение в промпт — GPT выдал в 5 раз больше. Как это работает
3

Просишь ChatGPT классифицировать отзыв одним словом — "позитив", "негатив" или "нейтрал". Получаешь абзац рассуждений: "Этот отзыв скорее можно отнести к негативным, потому что автор упоминает проблемы с доставкой, хотя есть и позитивные моменты...". Знакомо?

Как добиться точности форматирования от LLM через System → User → Assistant
1

Просишь GPT оценить идею. Получаешь позитивный отзыв: "Растущий тренд на ЗОЖ, unit-экономика сходится, есть успешные кейсы..." Но ты чувствуешь — что-то не так. Слишком гладко.

Я спросил GPT "Ты можешь ошибаться?" — и получил совершенно другой ответ

Два месяца назад я запускал систему с несколькими AI-агентами для проверки расчётов. Идея простая: один агент считает, второй проверяет, третий ищет дыры в логике. Работало отлично. Счёт за API — $487 за месяц. Половина бюджета улетела на то, чтобы модели перекидывались контекстом туда-сюда.

Заставил модель устроить дебаты в собственной голове. Работает лучше, чем multi-agent setup
1

Проблема не в невнимательности модели. LLM физически не умеют отслеживать длину во время генерации — у них нет внутреннего счётчика. Они генерируют текст токен за токеном, как человек, который пишет эссе, не глядя на счётчик слов в редакторе. Исследование Amazon Web Services (2025) показало: модели нарушают ограничения на длину больше чем в 50% слу…

ChatGPT постоянно пишет не то количество слов? Решили за 2 шага

Суть за 30 секунд

Вот смотрите, есть техника — берёшь свой промпт, копируешь его и вставляешь два раза подряд. Отправляешь. Всё. Точность ответов растёт на 5-70% в зависимости от задачи.

3

Keyword stuffing больше не работает. Исследователи из MIT и Princeton нашли, что реально влияет на видимость в AI-поиске — и это переворачивает всё, что мы знали о SEO.

Признайтесь: когда вам нужно быстро разобраться в теме, вы всё чаще идёте не в Google, а в ChatGPT или Perplexity. И вы не одиноки — трафик из традиционного поиска падает, а г…

Исследователи Университета Британской Колумбии предложили элегантный способ это исправить. Они научили LLM сначала формулировать своё намерение (план), а потом действовать по нему. Это называется Speaking with Intent (SWI).

И да, это работает в том числе с ChatGPT, в том числе и в размышляющих моделях.

2

Представьте, что вместо одного универсального помощника у вас есть целая команда узкоспециализированных экспертов, которые совместно решают даже самые сложные задачи. Именно такой подход лежит в основе MultiAgentBench — уникального метода промптинга для языковых моделей, в котором искусственный интеллект последовательно берет на себя разные роли, о…

Привет! Сегодня я расскажу вам про удивительную технику промпт-инжиниринга, которая превратит ваше общение с искусственным интеллектом в настоящую магию. Представьте, что вы можете получать именно те ответы, которые вам нужны, — точные, понятные и практичные!

Что такое "Добавление критериев оценки"? 🎯

1
1
Промпты ChatGPT в стиле Python: новый способ мыслить как разработчик, даже если ты ничего не понимаешь в коде

Структурирование промптов — это база. Почти каждое исследование в сфере prompt engineering подчёркивает: от формы подачи запроса зависит точность, логичность и полезность ответа. Я давно использую списки, markdown, XML. Но недавно наткнулся на нетривиальный подход — структурирование промптов в виде псевдокода на Python. Не нужно быть программистом,…

1
1

Когда мы даем нейросетям длинные тексты, например юридические договоры, аналитические отчеты или научные статьи, возникает типичная проблема: модель прекрасно "помнит" начало и конец, но теряет важные детали из середины. Этот эффект называют "Lost in the middle", и он мешает GPT и другим LLM полноценно работать с объемными контекстами.

Ускоряем GPT: новая методика помогает ИИ лучше обрабатывать длинные документы
4