Как решать сложные проблемы не на вайбе
Все мы сталкиваемся в программировании с сетками с какими-от багами, которые ну никак не могут быть решены с налету, попытками уговоров агента, либо принимая все его предложения. Часто люди даже сдаются и просто откатывают такой код, справедливо полагая, что фиксить его будет тяжелее, чем написать снова.
Но есть типы функционала, которые нам приходится реализовывать, и который при этом сетки часто пишут неверно с первого раза. Это деплой, многопоточность, мета-промптинг, нюансы авторизации, код из новых библиотек и т.д.
Мы не можем просто их "не решать", так как заменить их нечем, а что-то делать нужно.
Поэтому делюсь с вами системным алгоритмом, используя который можно раскалывать даже достаточно сложные кодинговые задачки.
1) Описываем баг. Либо сами (подробно), либо кормим Gemini 2.5 pro в AI студии логи работы вашего кода и просим сказать, что там не так. Она съедает до 1 млн контекста — идеально для анализа логов (я работаю в основном по логам, т.к. много бэкенда, фронтам нужно иначе).
2) Несем результат в Шотган и выбираем промпт "Find bug" — получаем потенциальный стектрейс проблемы.
- 1) Если она понятна и проста, то далее тащим результат тоже в шотган и применяем dev промпт. Затем полученный дифф интегрируем хоть руками хоть курсором
- ) Если непонятна, то отдельным промптом просим Find bug агента дать вам список файлов, которые имеют отношение к проблеме, это пригодится нам далее
3) Что если проблема не пофиксилась с первого/второго раза. Короче говоря, творческая в плохом смысле.
Тогда нас будет выручать GPT-5
Его особенность в том, что ему нужно очень сурово препарировать контекст.
Итак, открываете ChatGPT 5-thinking модель и даете следующий промпт:
Я делаю таску [такую-то]. В процессе работы я наткнулся на баг. Он заключается в [копируем сюда вывод Gemini по логам].
Расскажи мне причины бага, и почему он возник.
Прикладываю контекст
Архитектура
====
{описание архитектуры которое я надеюсь вы делаете для своих тасок, шотган -> Architecture}.
===
Необходимые файлы /собираем индексилкой, или просто шотганом, ШотганПро умеет это делать автоматически). Важно — не весь проект/
===
[список файлов и их кода]
===
Мнение тестировщика, но я не уверен что оно корректное/замечание про неуверенность важно, т.к. иначе модель зацепится за эти выводы, а т.к. баг не пофиксился легко, то очень часто они неверные/
====
[складываем отчет от Gemini]
====
GPT-5 выплюнет в вас достаточно сложными рассуждениями и кусками кода, которые вы плохо поймете. Но это не беда, потому что:
4) Тащим теперь это в шотган к dev агенту или в курсор. Тупо копируем и говорим
Я делаю таску [такую-то]. В процессе работы я наткнулся на баг. Он заключается в [копируем сюда вывод Gemini по логам] /короче то же что и GPT-5/
Вот предложение архитектора
====
[Пространный бред от GPT-5]
====
Верифицируй и реши задачу
И вот это уже с большой вероятностью сработает
А далее можно продолжать фигачить ваш курсорный или CC-шный вайб в промышленных объемах =)
В целом, секрет заключается в тщательном отборе контекста для моделей, с соблюдением двух принципиальных моментов
- Помнить, что модели не знают ничего за пределами их контекста
- Не подходить к ним с человеческими мерками. Модели уже умнее людей в ряде задач, и то что для вас "какой-то бред", для них валидный инпут, который не нуждается в пояснениях. Нужно уметь этот момент почувствовать.
Это мой способ. Пишите, если у вас есть свой, будет интересно почитать комментарии.
Подписывайтесь на Telegram Глеб про AI.