Nova Sapiens

+29
с 2023

Эксперт по нейросетям для работы и бизнеса @ainovasapiens

13 подписчиков
1 подписка

Попросил нейросеть написать пост на 50 слов — получил 73. Исправил промпт — вышло 42. Переделал снова — 68. Знакомо? Модели физически не умеют считать слова в голове. Но есть хак, который поднимает точность попадания с 10% до 94%.

Попросил нейросеть написать 50 слов — она выдала 73. Как заставить модель считать

Ты спрашиваешь у ChatGPT "как открыть кофейню?" — он выдаёт водянистую простыню на 3 экрана. Бизнес-план, маркетинг, поставщики — всё общее, как из Википедии. А ты сидишь и думаешь: "Блин, мне конкретно в моей ситуации что делать?"

Одна строчка в промпте подняла качество ответов на 47%
1

Ты просишь ChatGPT написать код для Lambda + API Gateway. Получаешь шаблон. Пытаешься задеплоить — ошибка. Просишь исправить — новая ошибка. В третий раз модель возвращает первую ошибку, которую уже исправляла. Знакомо?

Почему ChatGPT генерирует рабочий код только в 20% случаев — и как поднять это до 90%

Беру классическую загадку: "Человек с собакой подходит к реке. Мост разрушен. Как собака переходит реку, не замочив лап?" Даю GPT-4o — отвечает правильно: "Река замёрзла". Точность модели на таких задачах ~95%.

Почему ChatGPT решает знакомую задачу, но тупит на её вариации (и как это обойти)
2

Попросил ChatGPT разобрать бизнес-идею для питча инвесторам. Получил 3 абзаца общих слов про "перспективы" и "риски". Добавил в промпт одно предложение про ставки — модель выдала структурированный отчёт на 5 страниц: с приоритетами на 30/90 дней, финансовыми проекциями, оценкой рисков и митигацией. Ответ стал длиннее в 5 раз и реально годным для пр…

Добавил одно предложение в промпт — GPT выдал в 5 раз больше. Как это работает
4

Просишь ChatGPT классифицировать отзыв одним словом — "позитив", "негатив" или "нейтрал". Получаешь абзац рассуждений: "Этот отзыв скорее можно отнести к негативным, потому что автор упоминает проблемы с доставкой, хотя есть и позитивные моменты...". Знакомо?

Как добиться точности форматирования от LLM через System → User → Assistant
1

Просишь GPT оценить идею. Получаешь позитивный отзыв: "Растущий тренд на ЗОЖ, unit-экономика сходится, есть успешные кейсы..." Но ты чувствуешь — что-то не так. Слишком гладко.

Я спросил GPT "Ты можешь ошибаться?" — и получил совершенно другой ответ

Два месяца назад я запускал систему с несколькими AI-агентами для проверки расчётов. Идея простая: один агент считает, второй проверяет, третий ищет дыры в логике. Работало отлично. Счёт за API — $487 за месяц. Половина бюджета улетела на то, чтобы модели перекидывались контекстом туда-сюда.

Заставил модель устроить дебаты в собственной голове. Работает лучше, чем multi-agent setup
1

Проблема не в невнимательности модели. LLM физически не умеют отслеживать длину во время генерации — у них нет внутреннего счётчика. Они генерируют текст токен за токеном, как человек, который пишет эссе, не глядя на счётчик слов в редакторе. Исследование Amazon Web Services (2025) показало: модели нарушают ограничения на длину больше чем в 50% слу…

ChatGPT постоянно пишет не то количество слов? Решили за 2 шага

Суть за 30 секунд

Вот смотрите, есть техника — берёшь свой промпт, копируешь его и вставляешь два раза подряд. Отправляешь. Всё. Точность ответов растёт на 5-70% в зависимости от задачи.

3

Keyword stuffing больше не работает. Исследователи из MIT и Princeton нашли, что реально влияет на видимость в AI-поиске — и это переворачивает всё, что мы знали о SEO.

Признайтесь: когда вам нужно быстро разобраться в теме, вы всё чаще идёте не в Google, а в ChatGPT или Perplexity. И вы не одиноки — трафик из традиционного поиска падает, а г…

Исследователи Университета Британской Колумбии предложили элегантный способ это исправить. Они научили LLM сначала формулировать своё намерение (план), а потом действовать по нему. Это называется Speaking with Intent (SWI).

И да, это работает в том числе с ChatGPT, в том числе и в размышляющих моделях.

2