Доверить код ИИ или не доверить? Вот в чем вопрос

Особенность нынешних моделей в том, что они забывают контекст

Доверить код ИИ или не доверить? Вот в чем вопрос

Привет! Я Артём Харитонов — основатель GORA и человек, который посмотрел сотни тысяч строк кода, написанных людьми, машинами и иногда — неведомой смесью первого со вторым. И вот что я точно понял: нейросети — полезный инструмент. Однако, если ты решил разогнать команду разработчиков и написать всё с помощью одной только большой языковой модели — не спеши. Есть нюансы.

Утечки данных и безопасность

Нейронки обучаются на открытых репозиториях. Хороший продакшн-код туда редко попадает. Однако хуже другое: всё, что ты пишешь в чат — наверняка будет использовано для следующей итерации обучения.

Компании, создающие ИИ, испытывают контентный голод и уже в 2024 году скормили весь интернет и все книги и знания нейронкам. Сейчас модели обучаются на синтетических данных, сгенерированных другими нейронками. Поэтому охоту за реальными данными, которых еще нет в обучающих БД, не остановит ни одна галочка «не предоставлять» и ни одно соглашение о конфиденциальности.

Тебя не спасёт даже режим инкогнито: переписки сохраняются. Пссс! даже временные чаты этим грешат. Отсюда вытекает важная проблема — безопасность.

В июле 2025 года Google начал индексировать публичные чаты пользователей ChatGPT, на которые были сделаны общедоступные ссылки. В результате миллионы переписок с нейронкой оказались в открытом доступе. Как думаешь, сколько фрагментов конфиденциального кода туда попали?

Вас могут сколько угодно заверять, что все приватно. Однако свежий пример с xAI, которые утверждали, что в отличие от OpenAI, переписки с Grok не индексируются в браузере, показывает обратное. Свыше 370 тысяч чатов с ИИ-ботом, содержащие пароли, личные документы, запрещенные темы, можно найти через поисковик все в том же Google 😱

Доверить код ИИ или не доверить? Вот в чем вопрос

Корпоративная безопасность и нейросети — пока не дружат. Используя ИИ вслепую, ты потенциально делишься архитектурой и логикой своего проекта со всем миром.

Помнить что ты написал неделю назад — не всем под силу

Пожалуй, это главный и крайне важный поинт.

Особенность нынешних моделей в том, что они забывают контекст.

Если вы начали писать код проекта с помощью ИИ и через неделю к нему вернулись, то нейронка будет воспринимать весь код, написанный ей же, как чужой. Начинает его анализировать, дописывать функции и тратить ваши токены и деньги только на то, чтобы войти в курс дела. И это спустя неделю, а не со сменой разработчика!

В работе же над проектом, который изначально написан разработчиками, решение вставить кусок кода, сгенерированного LLM может обернуться печальными последствиями, что крики ахтунг окажутся лишь вершиной этого нейронного айсберга.

Дорабатывать проект с помощью нейронки который больше 100 000 LoC (строк кода) практически нереально.

Доверить код ИИ или не доверить? Вот в чем вопрос

Контекст важен. Это не просто имена переменных. Это правила игры, код стайл, как принято в команде, какие компромиссы уже были сделаны, что можно, а что нельзя. Нейросеть их не знает или уже не помнит.

Никакого code review и ответственности

Когда ты пишешь сам — твой код смотрят коллеги. Он проходит ревью. Ты отвечаешь за него, понимаешь его и каждую строчку, каждое решение можешь объяснить. В идеальном мире, конечно.

GPT криво пишет тесты, не приходит на ретро и злоупотребляет эмоджи. Он не несёт ответственности. А вот ты — все еще отвечаешь за то, что сделал.

Если код сломал прод, если данные утекли, если клиенты недовольны — объяснять будешь ты или нести ответственность по контракту. Не OpenAI. Не Copilot. Не Claude. А ты и твоя команда.

Представь, что нейронка написала банковское ПО и все деньги исчезли или личные данные утекли из-за банальной ошибки в безопасности. Чей это факап?

Нейронка для кода — полезный инструмент в правильных руках. Но не несущий ответственность.

ИИ галлюцинирует. И делает это уверенно ✊

Иногда нейросети выдумывают функцию, дают ссылку на несуществующую библиотеку, предлагают неверный метод. Например, попросите вы еще две недели назад нейронку прислать вам рецепт свиных крылышек, и она это сделает. Даже фотографию приложит.

В последней версии ChatGPT пофиксили эту проблему. Однако галлюцинации остаются с нами. И проблема здесь не в том, что ИИ ошибается. Проблема в том, что вы не всегда это замечаете и можете понять. А в проектах на десятки тысяч строк кода – это особенно вредно.

ИИ безотказный. Он всегда соглашается

Правильный разработчик не просто пишет код. Он анализирует, декомпозирует, спорит и говорит как не следует делать или предлагает нестандартные варианты решения задачи. Нейросети этого не делают. Они выполняют инструкции без критического мышления.

Написать качественный код нейронкой без правильного промта, который сможет составить только профессионал, вроде разработчика-сеньёра или лида или архитектора ПО практически невозможно, это как учиться водить по роликам на ютубе, а потом сесть за руль и поехать в первый раз.

Доверить код ИИ или не доверить? Вот в чем вопрос

Для тебя решат даже самую абсурдную задачу. Если в промте ты бессознательно заложил свою точку зрения на ситуацию или проблему, то ИИ её поддержит. И похвалит.

ОнИИ только учатся сопротивляться глупости 🤓

Так стоит ли вообще использовать ИИ?

Конечно, но с умом. Особенно если ты джун – GPT поможет:

  • объяснить что происходит
  • сгенерировать черновик решения
  • помочь преодолеть страх чистого листа
  • навести на правильную мысль или варианты

🥊 ИИ ещё и отличный спарринг-партнёр при вайб-кодинге.

Так может ли нейронка написать весь код проекта без участия разработчиков, поддерживать его и развивать проект? Пишите в комментариях - пофлудим!

6
Начать дискуссию