Мы отдали проект целиком AI-кодеру Cursor и посчитали каждый час. Итог: минус 10 часов за 2 недели

Мы отдали проект целиком AI-кодеру Cursor и посчитали каждый час. Итог: минус 10 часов за 2 недели

34% кода пришлось переписать вручную, SQL-инъекция ушла в продакшн, а оператор до последнего был уверен, что AI его ускоряет. Дневник эксперимента с цифрами — для тех, кто принимает решения о внедрении AI в разработку.

Зачем мы это сделали

В VibeLab мы работаем с AI-инструментами каждый день — RAG-системы, NLP-пайплайны, агентные архитектуры. Cursor используем с 2024 года. Но одно дело — AI как ассистент, другое — отдать ему проект целиком.

Мы хотели проверить обещание vibe coding: нетехнический сотрудник описывает задачу словами, AI пишет код, на выходе — рабочий внутренний инструмент. Без маркетинговых иллюзий, с ежедневным логом и объективными метриками.

Проект: веб-приложение с REST API, базой данных и фронтендом. Не прототип на выброс — рабочий инструмент для команды.

Оператор: нетехнический сотрудник. Опытный разработчик выступал ревьюером, но не писал код.

Правила: весь код генерирует Cursor, ежедневный лог метрик, code review каждые 3 дня — фиксируем проблемы, но не исправляем.

Неделя 1: эйфория и реальные цифры

Первые три дня выглядели как рекламный ролик. Нетехнический оператор получил работающий бэкенд с 8 эндпоинтами, базой данных и авторизацией. На ручной разработке это заняло бы 3–5 дней у опытного инженера. Прирост скорости — 40–60%.

Cursor особенно хорош на старте: пустая кодовая база, весь контекст помещается в окно, задачи типовые. CRUD за 5–10 минут вместо 30–40. Юнит-тесты — быстрее любого разработчика. Бойлерплейт, конфиги, миграции — всё, что имеет устоявшийся шаблон, AI делает отлично.

Но уже к концу недели при code review мы увидели тревожные сигналы:

  • Валидация email написана в трёх местах тремя разными способами
  • Фронтенд ожидал дату как ISO-строку, бэкенд отдавал Unix timestamp
  • 47 зависимостей в package.json — минимум 15 дублировали друг друга

Cursor не выстраивал систему. Он решал каждую задачу как изолированную проблему.

Неделя 2: стена

Кодовая база перевалила за 7 000 строк. Скорость генерации формально не снизилась, но количество итераций на задачу выросло с 2–3 до 6–8. AI чинил один баг — ломал другое место. Это «двухнедельная стена», которую фиксируют разработчики независимо друг от друга.

Три причины деградации, важные для принятия решений:

  1. Контекстное окно. Cursor видит 5–10 файлов одновременно, а проект уже из 40+. Решения принимаются на неполной картине — как если бы ваш сотрудник читал только последнюю страницу ТЗ.
  2. Накопление техдолга. Каждое «почти правильное» решение оставляет микронесоответствия. К десятому дню они складываются в системные проблемы.
  3. Нет архитектурной памяти. Человек держит в голове модель проекта. AI работает только с тем, что видит прямо сейчас.

Исследование CMU (ноябрь 2025, 807 репозиториев) подтверждает: Cursor даёт 3–5-кратный прирост строк кода в первый месяц, но через 2 месяца скорость возвращается к базовой. При этом сложность кода вырастает на 41%, а предупреждения статического анализа — на 30%.

Инцидент: SQL-инъекция от AI

На одиннадцатый день Cursor добавил эндпоинт экспорта данных. Без проверки прав доступа. С произвольным SQL-фильтром через query-параметр. ORM-обёртка, которую Cursor сам написал неделей раньше, в одном месте пробрасывала параметр в raw-запрос.

SQL-инъекция в эндпоинте без авторизации — классика OWASP Top 10. При том что наш конфигурационный файл .cursorrules явно запрещал raw SQL.

Почему AI нарушил собственные правила? Потому что .cursorrules — рекомендация, а не ограничение. Контекст конкретной задачи вытеснил общие инструкции.

По данным CodeRabbit (декабрь 2025, 470 pull-реквестов): AI-код содержит в 1.57 раза больше уязвимостей безопасности. XSS-уязвимостей — в 2.74 раза больше. Наш случай — статистическая закономерность, не исключение.

Итоговые цифры за 14 дней

Мы отдали проект целиком AI-кодеру Cursor и посчитали каждый час. Итог: минус 10 часов за 2 недели

Экономика эксперимента:

  • Cursor Pro: $20/месяц
  • Экономия за первую неделю: ~20 часов разработки
  • Затраты на исправления второй недели: ~30 часов опытного инженера
  • Чистый результат: минус 10 часов

Почему вы думаете, что AI вас ускоряет (а это не так)

Самое важное для управленцев. Наш оператор на протяжении всего эксперимента был уверен, что Cursor ускоряет работу. Даже после инцидента. Даже после переписывания трети кода.

Исследование METR (июль 2025): 16 опытных разработчиков работали с Cursor Pro на реальных задачах. Объективно — были на 19% медленнее. Субъективно — считали, что быстрее на 20%. Разрыв между ощущением и реальностью — 39 процентных пунктов.

Cursor создаёт иллюзию прогресса. Код появляется мгновенно — мозг фиксирует это как продуктивность. Время на промпты, итерации, отладку и исправления размазано и не воспринимается как потеря.

Если ваша команда говорит «Cursor нас ускоряет» — попросите показать цифры. Не ощущения, а часы и задачи.

Что реально работает: фреймворк после эксперимента

Принцип: AI генерирует, человек архитектурит.

Отдавайте AI:

  • CRUD-операции по образцу
  • Юнит-тесты и интеграционные тесты
  • Рефакторинг по шаблону
  • Бойлерплейт: миграции, конфиги, типовые UI-компоненты
  • Документацию

Делайте руками:

  • Архитектурные решения
  • Нетривиальную бизнес-логику
  • Всё, что связано с безопасностью
  • Интеграции с внешними API
  • Code review каждого AI-коммита — без исключений

Процесс:

  • Короткие сессии: 3–5 задач, потом review. Не копить AI-код неделями.
  • Каждые 2–3 дня пересоздавать чат с обновлённым контекстом проекта.
  • Вести лог фактического времени. Ощущения врут на 39 п.п.

Кому подойдёт Cursor, а кому — нет

Работает для:

  • Прототипов и MVP — проверить гипотезу за неделю, техдолг некритичен
  • Внутренних инструментов с жизненным циклом 3–6 месяцев
  • Опытных разработчиков как мультипликатор — 20–50% ускорения на рутине при контроле архитектуры

Опасен для:

  • Продакшн-систем без постоянного code review
  • Нетехнических операторов на проектах длиннее недели
  • Систем с высокими требованиями к безопасности

Главный вывод

46% нового кода на GitHub в 2026 году написано с помощью AI. 92% разработчиков в США используют AI-ассистенты ежедневно. Вопрос не «использовать или нет», а «как не утонуть в техдолге на третьей неделе».

Наш эксперимент показал формулу: AI пишет код, человек отвечает за архитектуру, безопасность и review. Каждый коммит. Без исключений. Cursor ускоряет рутину на 20–50%, но создаёт иллюзию продуктивности на сложных задачах. Он генерирует рабочий код, но не выстраивает систему.

Если вы CTO или продакт и думаете отдать разработку AI целиком — не делайте этого. Но если думаете не использовать AI вообще — вы тоже ошибаетесь. Истина, как обычно, в процессе.

Подписывайся на Телеграм Вайблаб, чтобы наблюдать за тем, как мы строим AI-first компанию.

Напишите нам напрямую

6
3 комментария