Сетап для AI-native разработки

Немного хочу рассказать про инструменты, которые я использую для AI-native разработки. Это как вайбкодинг, только AI-native. :) Важной характеристикой моего сетапа является его независимость от конкретных LLM. А также я стараюсь подобрать его таким образом, чтобы цена использования была минимальной.

Как я уже говорил раньше, я работаю в VS Code. Эта IDE даёт потрясающую гибкость в настройке инструментов, многоязыковость. Кроме того, она в отличие от MS Visual Studio отлично работает на Linux и в отличие от продуктов JetBrains совершенно спокойно ставится на комп без VPN. Более того, она ещё и бесплатная для проектов любой сложности.

Для поддержки агентной разработки я использую плагин RooCode. Это форк проекта Cline, который в свою очередь вдохновлён проектами Cursor и Claude dev. В отличие от последних двух, Cline и RooCode можно настроить на совершенно любую модель - в том числе развёрнутую локально. Отсутствие привязки к проприетарным моделям - это очень большое преимущество в наше время. Когда все друг друга со всех сторон ограничивают и накладывают санкции, гибкость является мощным коммерческим преимуществом. Именно поэтому, например, я сразу отказался от использования подписки на Claude за 20 долларов. Она требует достаточно большого количества "танцев с бубнами" и не даёт никаких гарантий, что завтра производитель не откажет в обслуживании. Строить стабильный процесс на таком инструменте нельзя.

Cline сам по себе хорош. В нём есть два режима: Plan и Act, которым можно назначить разные модели. Почему это важно - покажу чуть позже. RooCode расширяет эту возможность. В нём по умолчанию есть целых 5 режимов (Architect, Code, Debug, Ask, Orchestrator). Последний управляет переключениями между предыдущими четырьмя режимами. Также можно добавлять свои режимы. Каждому режиму можно назначить свою модель для работы.

Для доступа к моделям я использую агрегатор моделей. В моём случае это bothub.ru. Там нет подписки как на Claude, ты платишь за реально потраченные токены (Pay as you go). Каждая модель имеет свою стоимость. Одна из самых дорогих - Claude Opus 4.6 - около 600 руб. за 1 млн токенов. Самые дешёвые - китайцы: glm, qwen, minimax. Там цены исчисляются десятками рублей за 1 млн. токенов. Есть даже модели с ценой 4 или 8 рублей за 1 млн токенов. В моём сетапе режим Архитектор работает с glm5 - около 80 руб. за 1 млн токенов. Код, дебаг - я беру максимально дешёвые модели. Qwen, например. Для режимов Ask и Orhestrator использую minimax (около 40 рублей). Архитектор используется редко - в основном для составления плана задачи. В основном используются код и дебаг с копеечными ценниками. Для наиболее сложных задач я могу Архитектора переключить на Claude Opus, но стараюсь не делать этого, т.к. деньги улетают в трубу моментально. Здесь важно понимать, что 1 млн токенов контекста - это 4-5 полновесных или полтора десятка маленьких запросов к модели. Если брать запросы к самому дорогому "Архитектору", то это практически все мои запросы за рабочий день. Более того, в рабочем сетапе у меня развёрнута на мощностях компании простая кодовая модель, которая даёт возможность сделать запросы на написание кода вообще бесплатными.

Таким образом, за полноценный рабочий день я могу потратить порядка 200-300 рублей, т.е. где-то 6к в месяц. Даёт ли это какой-то выхлоп? На рутинных задачах с большим количеством кода - да. На чём-то более сложном - уже выгода в сравнении с ручным написание кода гораздо меньше, т.к. модели не всегда справляются - о чём я писал в предыдущем посте. Однако, здесь ситуацию можно улучшить с помощью подробных инструкций для LLM. Об этом я расскажу в одном из следующих постов.

Начать дискуссию