Попросил нейросеть написать пост на 50 слов — получил 73. Исправил промпт — вышло 42. Переделал снова — 68. Знакомо? Модели физически не умеют считать слова в голове. Но есть хак, который поднимает точность попадания с 10% до 94%.
Попросил нейросеть написать пост на 50 слов — получил 73. Исправил промпт — вышло 42. Переделал снова — 68. Знакомо? Модели физически не умеют считать слова в голове. Но есть хак, который поднимает точность попадания с 10% до 94%.
Ты спрашиваешь у ChatGPT "как открыть кофейню?" — он выдаёт водянистую простыню на 3 экрана. Бизнес-план, маркетинг, поставщики — всё общее, как из Википедии. А ты сидишь и думаешь: "Блин, мне конкретно в моей ситуации что делать?"
Ты просишь ChatGPT написать код для Lambda + API Gateway. Получаешь шаблон. Пытаешься задеплоить — ошибка. Просишь исправить — новая ошибка. В третий раз модель возвращает первую ошибку, которую уже исправляла. Знакомо?
Беру классическую загадку: "Человек с собакой подходит к реке. Мост разрушен. Как собака переходит реку, не замочив лап?" Даю GPT-4o — отвечает правильно: "Река замёрзла". Точность модели на таких задачах ~95%.
Попросил ChatGPT разобрать бизнес-идею для питча инвесторам. Получил 3 абзаца общих слов про "перспективы" и "риски". Добавил в промпт одно предложение про ставки — модель выдала структурированный отчёт на 5 страниц: с приоритетами на 30/90 дней, финансовыми проекциями, оценкой рисков и митигацией. Ответ стал длиннее в 5 раз и реально годным для пр…
Просишь ChatGPT классифицировать отзыв одним словом — "позитив", "негатив" или "нейтрал". Получаешь абзац рассуждений: "Этот отзыв скорее можно отнести к негативным, потому что автор упоминает проблемы с доставкой, хотя есть и позитивные моменты...". Знакомо?
Просишь GPT оценить идею. Получаешь позитивный отзыв: "Растущий тренд на ЗОЖ, unit-экономика сходится, есть успешные кейсы..." Но ты чувствуешь — что-то не так. Слишком гладко.
Два месяца назад я запускал систему с несколькими AI-агентами для проверки расчётов. Идея простая: один агент считает, второй проверяет, третий ищет дыры в логике. Работало отлично. Счёт за API — $487 за месяц. Половина бюджета улетела на то, чтобы модели перекидывались контекстом туда-сюда.
Проблема не в невнимательности модели. LLM физически не умеют отслеживать длину во время генерации — у них нет внутреннего счётчика. Они генерируют текст токен за токеном, как человек, который пишет эссе, не глядя на счётчик слов в редакторе. Исследование Amazon Web Services (2025) показало: модели нарушают ограничения на длину больше чем в 50% слу…
Вот смотрите, есть техника — берёшь свой промпт, копируешь его и вставляешь два раза подряд. Отправляешь. Всё. Точность ответов растёт на 5-70% в зависимости от задачи.
Keyword stuffing больше не работает. Исследователи из MIT и Princeton нашли, что реально влияет на видимость в AI-поиске — и это переворачивает всё, что мы знали о SEO.
Признайтесь: когда вам нужно быстро разобраться в теме, вы всё чаще идёте не в Google, а в ChatGPT или Perplexity. И вы не одиноки — трафик из традиционного поиска падает, а г…
Исследователи Университета Британской Колумбии предложили элегантный способ это исправить. Они научили LLM сначала формулировать своё намерение (план), а потом действовать по нему. Это называется Speaking with Intent (SWI).
И да, это работает в том числе с ChatGPT, в том числе и в размышляющих моделях.