Случайный сбой в Claude Code показал, сколько данных Anthropic собирает с компьютеров разработчиков

Anthropic случайно выложила исходники своего ИИ‑ассистента Claude Code, и разработчики впервые увидели, как на самом деле устроен популярный инструмент. Оказалось, что плагин не просто подсказывает код, а внимательно смотрит на всё, что происходит у вас в проекте, и регулярно делится этим с серверами компании

Случайный сбой в Claude Code показал, сколько данных Anthropic собирает с компьютеров разработчиков

Недавно компания Anthropic допустила ошибку: в обновлении своего инструмента Claude Code случайно выложила весь исходный код — больше 500 тысяч строк. Это произошло 31 марта. Исследователи быстро разобрались в коде и нашли много интересного. Оказывается, инструмент следит за пользователями куда активнее, чем многие думали.

Что именно показал код?

Код раскрыл, как Claude Code работает на компьютере. Он записывает всё: какие файлы вы открываете, какие команды запускаете в терминале, какие правки вносите. Эти данные сохраняются в простых файлах на вашем компьютере. Потом они уходят на серверы Anthropic.

Данные хранятся до пяти лет, если вы не отключили опцию "Помогите улучшить Claude". Инструмент каждые полчаса проверяет обновления у компании и может менять своё поведение удалённо. Есть даже "выключатели", которые позволяют Anthropic принудительно остановить программу или изменить настройки без вашего согласия.

Скрытые функции для своих

В коде нашли флаги для неопубликованных фишек. Например, инструмент "DiscoverSkills" — поиск навыков на базе ИИ, доступный только сотрудникам Anthropic. Есть режим "KAIROS" — автономный агент, который сам действует, когда вы не работаете. И "Undercover Mode" — чтобы сотрудники компании могли вносить правки в чужие проекты, не выдавая, что это ИИ.

В коде нашли флаги для ещё не включённых функций. Самые интересные:

  • DiscoverSkills. Внутренний поиск «скиллов» для Claude Code, которым пользуются только сотрудники Anthropic. Проще говоря, это быстрый поиск по умениям и инструментам ИИ внутри компании. Обычным пользователям он недоступен.
  • KAIROS. Режим «всегда включённого» помощника. Пока вы отходите от компьютера, Claude продолжает работать в фоновом режиме: ведёт свои дневники, анализирует прошлые сессии, пытается «собрать картину» ваших задач и может сам предлагать действия. По сути, это уже не просто подсказки по коду, а постоянный агент, который живёт на вашей машине.
  • Undercover Mode. Режим «под прикрытием» для сотрудников Anthropic. В нём Claude получает явную инструкцию никогда не говорить, что он ИИ, не вставлять в коммиты подписи вроде Co‑Authored‑By и не выдавать внутренние коды и названия. Такой режим нужен, чтобы сотрудники могли вносить изменения в открытые проекты, не раскрывая участие ИИ.

Это уже вторая утечка у Anthropic за неделю. Раньше слились данные о новой модели "Mythos" и внутренних файлах.

Что это значит для разработчиков?

Claude Code — популярный инструмент для кодинга с ИИ. Многие дают ему доступ к файлам и командной строке. Теперь ясно: он постоянно общается с серверами Anthropic и передаёт много информации. Если вы работаете с важными проектами, это повод задуматься:

  • что именно уходит наружу — вместе с кодом могут отправляться служебные файлы, логи, куски конфигураций и внутренние комментарии разработчиков;
  • как долго всё это хранится — по текущей политике часть таких данных может лежать у компании до пяти лет, если включён сбор для «улучшения продукта»;
  • кто ещё получит доступ — внутри крупной компании к телеметрии и логам могут иметь доступ не только разработчики инструмента, но и служба безопасности, аналитики, подрядчики;
  • может ли поведение измениться удалённо — из кода видно, что Anthropic может через флаги и «выключатели» менять логику работы плагина без обновления в вашем редакторе;
  • и что будет при следующем «сбое» — нынешняя утечка показала, что даже «осторожные» компании иногда ошибаются, а значит, риск повтора всегда остаётся.

Для компании с клиентскими данными, закрытым R&D или гос‑контрактами это уже не вопрос удобства, а вопрос операционных рисков

Anthropic уже убрала старую версию с npm, но код теперь везде в открытом доступе — его скопировали на GitHub. Компания назвала это "человеческой ошибкой", но доверие подорвано.

Что делать разработчикам прямо сейчас

История с Claude Code показывает простую вещь: даже «осторожные» компании могут собирать и хранить куда больше данных, чем ожидают пользователи. Поэтому относиться к ИИ‑ассистентам в разработке стоит не как к безобидным плагинам, а как к внешним сервисам с постоянным доступом к вашему рабочему окружению.

Если приземлить всё это на реальную разработку, список базовых действий выглядит так:

  • Используйте ИИ‑инструменты осторожно и не давайте им полный доступ к проекту «по умолчанию».
  • Ограничивайте права: отдельные папки, минимум доступов к терминалу, особенно если в коде есть данные клиентов или коммерческая тайна.
  • Отключайте опции вроде «помочь улучшить продукт», если не готовы к тому, что логи и фрагменты кода будут лежать на серверах годами.
  • Читайте политику конфиденциальности и условия использования: ищите пункты про сбор логов, телеметрию, обучение на ваших данных и сроки хранения.
  • Следите за версиями плагинов в IDE и обновляйтесь осознанно, а не просто «всегда ставить последнее».
  • Разделяйте среды: одно дело — личные pet‑проекты, другое — прод боевой системы. Там, где риски высокие, иногда лучше отказаться от ИИ‑помощника.
  • Обсудите внутри команды или компании базовые правила работы с ИИ‑сервисами, чтобы каждый понимал, какие данные можно показывать таким инструментам, а какие — нет.

Пока рынок только привыкает к ИИ в разработке, никакие политики и красивые заявления не заменят простую гигиену безопасности: задавать лишние вопросы, резать лишние доступы и не показывать ассистентам то, что вы бы не отправили внешнему подрядчику.

1
Начать дискуссию