Почему ChatGPT «забывает» в середине диалога — и как это починить
Когда переписка длинная, ChatGPT внезапно «теряет нить». Это не «глупость» модели, а техническое ограничение: контекстное окно. Модель видит только N токенов (кусочков текста) за раз; новое вытесняет старое — и начало диалога исчезает из поля зрения. Ниже — как устроен лимит и что делать, чтобы модель помнила важное даже в больших задачах.
Короткий ликбез: токены и контекстное окно
- Токен — минимальная единица для модели (часть слова/слово/знак).
- Контекстное окно — «оперативная память» запроса: история переписки + ваш новый промпт + будущий ответ.
- Когда окно заполнено, ранние сообщения вытесняются. Отсюда «амнезия».
Ориентир: у базовых конфигураций это тысячи токенов (примерно несколько тысяч слов или ~5–10 страниц). Если вы загрузили книгу на 30 страниц или очень долго переписывались, часть раннего контекста неизбежно выпадет.
3 способа, как не терять контекст
1) «Якорь-контекст» в каждом новом запросе (быстро и без кода)
В начале каждого сообщения коротко напомните ключевое:
- кто вы и для кого делаете,
- цель задачи,
- принятое ранее,
- запреты/ограничения.
Шаблон (≤120 слов): «Контекст: мы делаем [что] для [аудитория]. Цель — [результат]. Уже выбрано: [1–3 решения]. Не предлагай: [что исключили]. Задача на этот шаг: [конкретно]. Формат ответа: [список/таблица/план], объём [N].»
Плюс: мгновенно повышает точность. Минус: требует дисциплины — вставлять «якорь» каждый раз.
2) Собственный GPT-ассистент (системный промпт не «забывается»)
Создайте ассистента, где жёстко прописаны роль, рамки, требования к качеству, структура ответа и «красные флаги». При каждом обращении системный промпт подтягивается заново, поэтому последовательность действий сохраняется, даже если диалог длинный.
Что зашить внутрь ассистента:
- Роль и область («Ты — редактор/аналитик/маркетолог…»).
- Константы проекта (тон, аудитория, запреты).
- Форматы вывода (таблица / план / чек-лист).
- Самопроверка (перед ответом — check по 5 пунктам: факты, логика, ясность, клише, применимость).
- Вопросы-уточнения («Сначала задай 3 уточняющих вопроса, затем действуй»).
Плюс: стабильность и скорость. Минус: нужен час на качественную «распаковку» экспертизы при настройке.
3) RAG и векторные базы (для больших объёмов)
Когда материалов много (книги, отчёты, базы знаний), подключают Retrieval-Augmented Generation:
- Документы режутся на «чанки» (500–1500 слов) и индексируются в векторной базе (числовые «отпечатки смысла»).
- На ваш запрос система находит по смыслу 3–10 релевантных фрагментов.
- В промпт попадают только нужные куски, а не «вся книга».
Плюс: модель отвечает по делу и с цитатами, не «забывает» важное, а токены тратятся экономно. Минус: нужна минимальная настройка (но это окупается уже на первом большом проекте).
Быстрые шаблоны, которые экономят сотни токенов
A. Сжатие истории перед продолжением «Сожми нашу переписку в 8–10 пунктов (≤180 слов). Выдели 5 неизменяемых требований. Подтверди, что понял, и переходи к [следующий шаг].»
B. Работа с длинным документом «Разбей текст на разделы. Для каждого: 5 тезисов, 3 цитаты-опоры (≤20 слов), 2 риска/ограничения. В конце — сводная карта связей и список «что проверить/дособрать данными»».
C. Самопроверка перед ответом «Перед выдачей результата: оцени черновик по 5 критериям (факты, логика, ясность, клише, применимость) — поставь 1–5 и коротко, как улучшить. Затем перепиши.»
Когда модель «плывёт»: признаки переполнения окна
- Противоречит ранее согласованному.
- Повторяет отвергнутые варианты.
- Даёт общие слова вместо фактов/структуры.
Что делать сразу: вставить «якорь-контекст», попросить самоконспект истории (≤200 слов) и продолжить с ним.
Частые ошибки и быстрые правки
- Грузите «полотно» целиком. → Режьте на логичные блоки + конспект.
- Просите «всё и сразу». → Работайте итерациями: структура → детали → черновик → правка.
- Нет констант. → Держите отдельный блок «неизменяемые требования» и вставляйте в каждый запрос.
- Факты «из головы». → Для критичных тем подключайте файлы/RAG и фразу: «Отвечай только по этим материалам; если данных нет — скажи об этом».
ChatGPT «забывает» не потому, что слабый: вылетает начало истории за пределы контекстного окна. Решения — якорить контекст, вынести правила в GPT-ассистента и, для больших массивов, использовать RAG с векторными базами. Так вы держите смысл под контролем и делаете точные ответы даже на длинных проектах.
Хочется глубже? В моём Telegram — разбор: чем токен отличается от «кредита», как считать объёмы на глаз и пошаговая настройка мини-RAG. Ссылка — тут!
Я создаю GPT-ассистентов под любые ваши задачи, пишите в ЛС в телеграм!