Я подсел на вайб-кодинг: запустил в продакшн пять проектов за два месяца. Что вам нужно знать, если тоже хотите попробовать (от n8n до MCP).

У нас было два ноутбука, семьдесят пять гигабайт датасетов, пять облачных серверов с нейросетями, флешка, наполовину полная токенов GPT, и целая галактика разноцветных фреймворков, библиотек, дебаггеров, оптимизаторов...

И ещё куча API-ключей, пара контейнеров Docker, тройка гитхаб-репозиториев и бесконечный поток логов и багов в беклоге. Не то чтобы это был необходимый набор для разработки, но раз уж ты влез в мир LLM и вайб-кодинга, то к делу надо подходить серьёзно.
И ещё куча API-ключей, пара контейнеров Docker, тройка гитхаб-репозиториев и бесконечный поток логов и багов в беклоге. Не то чтобы это был необходимый набор для разработки, но раз уж ты влез в мир LLM и вайб-кодинга, то к делу надо подходить серьёзно.

Я увлекся программированием больше двадцати лет назад, еще в школе. Позже в университете фрилансил, создавая сайты, и это увлечение переросло в собственный бизнес — студию panfilov.digital (сегодня мы входим в топ-10 разработчиков в нескольких категориях «Рейтинга Рунета»). И поскольку разработкой занималась команда, со временем я отошел от непосредственного написания кода.

С развитием LLM я вновь вернулся к разработке и за последние два месяца запустил в продакшн больше проектов, чем могла бы сделать целая команда разработки:

  • систему управления аккредитациями для мероприятий;
  • ИИ-чат-бота и веб-интерфейс для формирования рекомендаций по здоровому образу жизни;
  • чат-бота для поиска номенклатуры продукции из нержавеющей стали;
  • контентный сайт для своего пет-проекта;
  • систему бронирования отелей (проект не дошел до релиза из-за неготовности бэк-офиса у бизнеса);
  • веб-интерфейс для отслеживания коммуникаций и документации в студии;
  • десятки микро-ботов и скриптов для разовых или типовых задач.

В этой статье я поделюсь своим опытом: что действительно работает в «вайб-кодинге», а что нет, и какие инструменты для каких задач лучше использовать:

Как создавать продукты «под ключ» с помощью нейросетей

Термин «вайб-кодинг» предложил в посте у себя в X Андрей Карпатый (Andrej Karpathy, ex-OpenAI, ex-Tesla).

В отличие от NoCode-инструментов вроде Webflow, которые предоставляют платформу для сборки систем, «вайб-кодинг» — это процесс написания полноценного fullstack-кода «под ключ» с помощью нейросетей.

Этот код вы можете использовать и дорабатывать самостоятельно, разворачивать на своих площадках и так далее.

Сегодня набирают популярность сервисы с AI-агентами, способные создавать готовые продукты на основе текстовых запросов (промптов). В первую очередь это касается веб-проектов, но и мобильная разработка активно развивается в этом направлении.

Поскольку моя студия специализируется на веб-разработке, я буду рассказывать именно про нее. Среди наиболее популярных сервисов можно выделить v0, Replit, Bolt и Lovable. Чем они отличаются и какие из них мне нравятся больше всего?

Начну с Replit. Я познакомился с Replit давно, когда у них был только AI-ассистент в облачной IDE. Насколько я помню, Replit одним из первых осенью прошлого года запустил именно ИИ-агента, который собирал решения «под ключ» по промпту. В этом году вышла вторая, еще более интеллектуальная версия.

Интерфейс среды разработки с помощью Replit Agent
Интерфейс среды разработки с помощью Replit Agent

Весной к нам в студию обратился клиент с задачей разработки платформы для управления аккредитациями на серию мероприятий: учет билетов, проживания, трансферов, пропусков и т.д. Сроки были сжатыми — первое мероприятие должно было состояться уже через месяц.

Я понимал, что на полноценную разработку (проектирование, бэкенд, фронтенд, тестирование) с привлечением нескольких программистов времени не хватит. Поэтому я решил попробовать реализовать эту задачу самостоятельно с помощью Replit.

В результате уже через неделю была готова первая версия на Node.js и React.js с необходимым функционалом: авторизацией, разграничением ролей, базой данных, логированием и облачным файловым хранилищем. И большая часть времени ушла на сбор требований и согласование с клиентом.

Главное преимущество такого подхода заключается в том, что клиент буквально через несколько дней может увидеть реально работающий интерфейс и самостоятельно его протестировать. Этого часто не хватает в «классической» разработке: текстовое ТЗ, красивые дизайн-макеты и даже кликабельные прототипы не дают полного представления о том, как система будет действительно работать. Когда клиент начинает пользоваться интерфейсом, это приносит наибольшую пользу: появляются новые пожелания, приходит понимание, какие функции действительно нужны, а какие — второстепенны, что удобно, а что — нет.

Ключевая задача заказной разработки — как можно быстрее предоставить клиенту возможность поработать с реальным продуктом. «Вайб-кодинг» идеально справляется с этой задачей.

Именно после одной из таких демонстраций выяснилось, что первоначальный набор функций и распределение ролей не совсем соответствовали реальным потребностям. Если бы мы разрабатывали этот продукт традиционным способом, это означало бы сложную переделку архитектуры, дни и недели тестирования.

В данном же случае я понял, что нужно, опираясь на первую версию и скорректировав требования с учетом новой информации, заново запустить агента для разработки системы с нуля. Так я и поступил: за два дня была готова вторая версия, разработанная с нуля и учитывающая все пожелания клиента.

Этот опыт открыл мне глаза на, возможно, главный плюс «вайб-кодинга»: зачастую быстрее и эффективнее переписать MVP с нуля, уже имея выводы и более четкие инструкции, чем дорабатывать и переделывать первую версию.

Наконец-то сбывается мечта любого разработчика: переписать с нуля быстрее и лучше, чем поддерживать устаревший legacy-код. Снижается ценность самого кода как такового.

Итоговую версию мы запустили в продакшн за пару недель. На текущий момент в системе обработано уже более полутысячи аккредитаций, а новые функции по запросу клиента внедряются легко и быстро.

Преимущества Replit:

  • Хороший шаблонный дизайн на Tailwind CSS.
  • Собственная база данных на базе Neon и интегрированное файловое хранилище Replit Object Storage.
  • Свобода в выборе стека, но предпочтение отдается TypeScript / Node.js / React.js.
  • Развертывание на облачные серверы с гибкой настройкой ресурсов, как на VPS-хостинге.

Я также экспериментировал с другими платформами, предлагающими разработку из промпта в аналогичном формате. Среди наиболее популярных сейчас — Bolt и Lovable. Однако они показались мне несколько ограниченными, так как предлагают только интеграцию с БД Supabase, хотя для создания интерфейсов и несложных контентных прототипов они подходят отлично.

Мое внимание привлек еще один проект — v0 от компании Vercel, создателей фреймворка Next.js и одноименной платформы для хостинга и облачного развертывания.

На v0 я решил создать свой контентный пет-проект — информационный туристический сайт, посвященный острову Ибица.

Логика работы v0 та же, что у Replit: ИИ-агент генерирует полноценный fullstack-код на основе промпта. Отличие в том, что он очень хорошо натренирован на создание интерфейсов с использованием библиотеки компонентов shadcn (также на Tailwind CSS) и на фреймворк Next.js (поскольку разработчики платформы являются и его создателями). Поэтому для контентного сайта, которому необходим серверный рендеринг (SSR) для полноценной индексации поисковиками, это идеальный вариант.

Кроме того, v0 «из коробки» интегрируется со многими сторонними сервисами, включая объектное хранилище Blob и базу данных Supabase. Подключение сервисов в код происходит простым нажатием кнопки: создаются и прописываются все необходимые доступы. В случае с БД сразу выполняется SQL-запрос на создание таблиц с нужной структурой. Такая нативная интеграция очень удобна.

Интерфейс v0 с открытым меню выбора готовых интеграций
Интерфейс v0 с открытым меню выбора готовых интеграций

Преимущество Replit и v0 заключается в том, что вы видите и логику проектирования, используемую агентом, и сам исходный код, который он создает. Это позволяет вносить изменения самостоятельно или давать агенту конкретные указания по изменению определенных частей кода.

Что мне не понравилось в v0, так это работа с чатами. При работе в одном чате через некоторое время система сообщает, что контекст заканчивается и нужно начать новый чат. Однако новый чат, даже в рамках одного проекта, создается пустым, то есть кодовая база не копируется. Нужно делать fork текущего чата, чтобы создать новый, что выглядит довольно запутанно. В Replit, напротив, при создании нового чата кодовая база сохраняется; обнуляется только контекст, и новый чат рекомендуется заводить при переходе к новому сегменту или логическому объему задачи.

Отдельно стоит упомянуть развертывание на платформу Vercel из v0. Одним кликом проект разворачивается на отдельном поддомене — не нужно возиться с настройками серверов или ручным деплоем. Любые изменения кода автоматически подхватываются при коммите в основную ветку (main), а если загружается отдельная ветка, она разворачивается на свой тестовый адрес, что удобно для тестирования перед публикацией в продакшн.

Поскольку в исходном промпте присутствует неопределенность, редко удается получить идеальный продукт с первого раза. Зачастую приходится многократно дорабатывать и переделывать. Иногда ИИ «уносит не туда», и приходится откатываться на предыдущие версии. Все упомянутые сервисы предоставляют возможность отката к предыдущим контрольным точкам.

Я подсел на вайб-кодинг: запустил в продакшн пять проектов за два месяца. Что вам нужно знать, если тоже хотите попробовать (от n8n до MCP).

Для отладки можно прямо в чат с сервисом отправлять скриншоты и описывать, что именно не работает. Система распознает изображение, понимает, где ошибка, и быстрее находит решение.

Но для еще более точной проработки прототипа я использую IDE с ИИ: выгружаю версию из v0/Replit в GitHub и оттуда скачиваю на компьютер для доработки с помощью Windsurf.

Cursor и Windsurf – IDE для разработки с ИИ

Cursor, кажется, получил больше внимания, особенно на фоне своей недавней оценки в $9 млрд (привлекли $900 млн по этой оценке). Мне почему-то больше подошел Windsurf, который недавно был приобретен OpenAI за $3 млрд.

Я подсел на вайб-кодинг: запустил в продакшн пять проектов за два месяца. Что вам нужно знать, если тоже хотите попробовать (от n8n до MCP).

В чем отличие Cursor/Windsurf от ИИ-агентов, работающих в браузере:

  • Возможность работать с существующей кодовой базой в режиме агента, понимать и изучать ее.
  • Возможность настраивать подход к разработке и архитектуре через файлы .cursorrules (или .windsurfrules) и md-файлы с инструкциями.
  • Меньше ограничений в выборе технологического стека, доступах к внешним ресурсам и настройке окружения.
  • Возможность расширять способности агента с помощью MCP (Multimodal Coordination Protocol).
  • ИИ-агент внутри IDE может взаимодействовать с консолью на вашем компьютере и выполнять серверные команды по настройке окружения или подключению к внешним сервисам.

MCP — это протокол, позволяющий через LLM подключаться к внешним сервисам и взаимодействовать с ними на естественном языке так же, как и с самой нейросетью.

Для настройки такой связи необходимо подключить IDE к MCP-серверу и выполнить настройку. Например, с помощью MCP-сервера GitHub можно делать коммиты и полностью управлять репозиторием, даже не зная git-команд. Через MCP-сервер также можно подключиться к БД Supabase и PostgreSQL и выполнять запросы к БД прямо из чата в IDE.

Мои топ-3 MCP для Cursor / Windsurf:

  1. browsertools — предоставляет ИИ в IDE доступ к консоли вашего браузера, что идеально для отладки ошибок на фронте.
  2. context7 — обеспечивает доступ к документации библиотек и фреймворков, предоставляя LLM всегда актуальный контекст.
  3. 21st-dev/magic — инструмент для генерации элементов интерфейса на основе библиотеки 21st dev.
Сайт Context7 с актуальной документацией по технологиям и сервисам, готовой для использования в LLM и AI-IDE
Сайт Context7 с актуальной документацией по технологиям и сервисам, готовой для использования в LLM и AI-IDE

Для эффективной работы с Cursor рекомендую использовать:

  • Общие правила разработки для IDE в файле .cursorrules (.windsurfrules для Windsurf).
  • Краткое описание технической документации и стека проекта в формате Markdown в файле docs/technical.md.
  • Описание архитектуры в формате Mermaid в файле docs/architecture.mermaid.

Файл .cursorrules определяет поведение ИИ в проекте и содержит инструкции о том, какие файлы читать при выполнении команд, как проверять соответствие архитектуре и каким принципам следовать при написании кода (например, SOLID, строгая типизация, покрытие unit-тестами).

Одним из важных правил является обязательная проверка изменений на соответствие архитектуре проекта, заданной в docs/architecture.mermaid. Этот файл описывает модули, взаимодействие между ними, зависимости и потоки данных в виде схемы Mermaid, что позволяет ИИ быстро понимать границы компонентов и их связи.

Кроме того, в docs/technical.md прописывается стек технологий (например, NestJS, TypeORM, RabbitMQ, PostgreSQL и др.), структура модулей и примеры кода для каждого компонента системы. Кстати, здесь же можно указать, чтобы при работе с каждой технологией ИИ запрашивал актуальную документацию через MCP-сервер context7. Это позволяет создавать новые модули или функции в строгом соответствии с заданной архитектурой и стилем.

Пример файла .cursorrules
Пример файла .cursorrules

Однако при работе с IDE все же необходимо минимально понимать принципы программирования, хотя и даже этому ИИ-агент может обучить. Но если речь идет о скриптах, чат-ботах, преобразовании информации, то необязательно писать код — существуют инструменты, еще более простые в освоении.

n8n – инструмент для «визуального программирования»

Подход, который я называю «визуальным программированием», уже давно представлен на рынке такими инструментами, как Zapier, Make.com (бывший Integromat) и отечественный Albato. С развитием LLM возможности самих платформ значительно расширились, а процесс создания логики в них упростился и ускорился.

n8n имеет преимущество перед перечисленными платформами, так как это open-source решение, которое можно разместить на своих серверах.

Инструмент очень прост в освоении: основная идея заключается в сборке сценария обработки данных с помощью связанных узлов (nodes).

Информацию можно получать:

  • от пользователя (например, из Telegram-бота или через GET/POST-запросы с помощью Webhook),
  • из внешних источников (подключившись по API к внешнему сервису или базе данных),
  • в узлах с ИИ, которые генерируют текст на основе запроса или используют инструменты (Tools) для взаимодействия с внешними сервисами (к примеру, чтобы делать запросы SQL к БД).
Часть сценария Telegram-бота в n8n с использованием ИИ-агентов
Часть сценария Telegram-бота в n8n с использованием ИИ-агентов

Возможности составления сценариев практически неограничены, именно поэтому я называю это не «nocode», а «визуальным программированием». К тому же в n8n есть узел Code, в который можно вставлять любой кастомный код на JavaScript/TypeScript. Код для этих узлов легче всего генерировать с помощью нейросетей (я предпочитаю ChatGPT и Grok).

ИИ подключается через ноду AI Agent с возможностью задавать кастомный промт, подключать инструменты (Tools) и память (Memory). Поддерживается распознавание с изображений. Новые модели OpenAI семейства 4.1 (а также 4.1-mini и 4.1-nano) с контекстом в миллион токенов специально оптимизированы для использования tool-ов и отлично подходят для подключения в n8n.

Вот несколько реальных примеров скриптов с AI, которые я реализовал на практике:

  • Поздравление сотрудников студии с днем рождения. Каждое утро скрипт проверяет, есть ли у кого-то из сотрудников день рождения, берет интересный факт из истории и на его основе генерирует поздравление в общий чат. Коллеги, увидев это, присоединяются и продолжают поздравления в треде.
  • Генерация контента. Для нескольких своих контентных проектов я генерирую тексты с помощью Gemini или ChatGPT, ищу изображения через Google Search API, получаю их GET-запросом и сохраняю в облачное хранилище v0 или в локальную CMS.
  • Еженедельный дайджест Product Hunt. Скрипт получает топ-5 продуктов недели с Product Hunt через GET-запрос к странице итогов, использует ИИ для создания кратких обзоров (summary) и публикует их в Telegram-канале.

В n8n необязательно использовать узлы с API нейросетей. Скрипты также помогают в «классической» разработке проектов:

  • Перенос контента со старого сайта. Скрипт смотрит на список страниц сайта из sitemap, парсит их, конвертирует текст из HTML в Markdown (удаляя лишние элементы вроде header/footer) и сохраняет в Google Drive. Используется для миграции контента на новый сайт, например, с 1С-Битрикс на Nuxt.js.
  • Обработка заявок с формы на сайте. Через Webhook обрабатывает сохранение данных из форм обратной связи на сайте, загружает файлы в Google Drive, записывает URL в базу данных и отправляет уведомление в Telegram с информацией о новом запросе.
  • Обновление данных из 1С. Скрипт синхронизирует информацию по товарным остаткам из 1С с базой данных сайта. Он проходит по массиву, ищет соответствия в номенклатуре, обновляет данные по цене и наличию и логирует изменения (в каталоге 10 тысяч позиций).

С помощью «вайб-кодинга» я начал развивать собственный интерфейс управления студией. После того как Notion в прошлом году пригрозил удалить все наши данные, я осознал, насколько сильно бизнес зависит от облачных SaaS-решений, и теперь последовательно перевожу важные инфраструктурные компоненты на self-hosted решения.

Вот пара сценариев использования n8n для админки студии:

  • Хранение расшифровок звонков и база знаний по проектам. Интеграция с Fireflies: при создании расшифровки звонка данные через webhook загружаются в базу данных. Скрипт ждет 3 минуты, проверяет готовность расшифровки, затем отправляет уведомление в Telegram. Таким образом собирается база знаний по проектам из разговоров.
  • Генерация документов для договоров. Обрабатывает данные из формы (номер приложения, сроки, стоимость), переданные через Webhook, и на основе шаблона создает документ (приложение к договору). Файл сохраняется в Google Drive с заменой placeholder’ов.

Общие советы по использованию нейросетей в разработке

  • В n8n обязательно настройте сценарий резервного копирования всех сценариев в GitHub (ссылка).
  • Экспериментируйте с моделями: Grok, ChatGPT, Gemini, Claude, и даже Deepseek. Я часто одну и ту же задачу параллельно ставлю нескольким моделям и смотрю, какая из них выдает лучший результат.
  • Используйте ИИ на всех этапах — начиная с генерации промптов: прежде чем поставить задачу сервису с ИИ, спросите у LLM, как лучше сформулировать запрос.
  • Работайте итеративно: сгенерировали версию → проанализировали ход мыслей агента → оценили результат → попросили исправить, отправляя скриншоты с ошибками.
  • Для frontend/UI лучше всего подходят v0, Lovable, Replit и т.д.: они способны сразу выдавать рабочий и эстетичный результат с использованием Tailwind, ShadCN и других подобных технологий.
  • Для архитектуры, backend-а и глубокой проработки используйте Cursor/Windsurf; создавайте файлы с правилами, описанием архитектуры и модулей.
  • Для self-hosted решений внимательно оценивайте ресурсоемкость: например, для Supabase нужен полноценный VPS как минимум с 2 ядрами и 4 ГБ RAM, а n8n не такой ресурсоемкий.
  • Обязательно предоставляйте ИИ-ассистенту контекст: бизнес-требования, архитектура, структура проекта, стек технологий — это значительно повышает точность и эффективность его работы.

В этой статье я затронул лишь малую часть всех возможностей и инструментов, которые сегодня можно применять для разработки продуктов с помощью нейросетей: еще есть генерация дизайна, автоматическая разработка с автотестами, создание документации, использование md-файлов для трекинга задач в Cursor и Windsurf, OpenAI Codex и Claude Code для работы из командной строки и так далее.

Новые версии больших языковых моделей выходят чуть ли не каждую неделю, новые сервисы для разработки с ИИ — каждый день. Несмотря на очевидный ажиотаж вокруг этой темы, с их помощью действительно можно создавать работающие продукты и ускорять «классический» цикл производства. Мы еще в самом начале этого пути.

В своем Telegram-канале я рассказываю о том, как занимаюсь бизнесом студии разработки, как развиваю стартап Telegram Mini App и, конечно, о своем опыте работы с нейросетями в создании продуктов — подписывайтесь.

Если вам нужна разработка («классическая» или «вайбовая») или консультация — пишите мне в Telegram: @mpanfilov.

13
4
9 комментариев