Случайный сбой в Claude Code показал, сколько данных Anthropic собирает с компьютеров разработчиков
Anthropic случайно выложила исходники своего ИИ‑ассистента Claude Code, и разработчики впервые увидели, как на самом деле устроен популярный инструмент. Оказалось, что плагин не просто подсказывает код, а внимательно смотрит на всё, что происходит у вас в проекте, и регулярно делится этим с серверами компании
Недавно компания Anthropic допустила ошибку: в обновлении своего инструмента Claude Code случайно выложила весь исходный код — больше 500 тысяч строк. Это произошло 31 марта. Исследователи быстро разобрались в коде и нашли много интересного. Оказывается, инструмент следит за пользователями куда активнее, чем многие думали.
Что именно показал код?
Код раскрыл, как Claude Code работает на компьютере. Он записывает всё: какие файлы вы открываете, какие команды запускаете в терминале, какие правки вносите. Эти данные сохраняются в простых файлах на вашем компьютере. Потом они уходят на серверы Anthropic.
Данные хранятся до пяти лет, если вы не отключили опцию "Помогите улучшить Claude". Инструмент каждые полчаса проверяет обновления у компании и может менять своё поведение удалённо. Есть даже "выключатели", которые позволяют Anthropic принудительно остановить программу или изменить настройки без вашего согласия.
Скрытые функции для своих
В коде нашли флаги для неопубликованных фишек. Например, инструмент "DiscoverSkills" — поиск навыков на базе ИИ, доступный только сотрудникам Anthropic. Есть режим "KAIROS" — автономный агент, который сам действует, когда вы не работаете. И "Undercover Mode" — чтобы сотрудники компании могли вносить правки в чужие проекты, не выдавая, что это ИИ.
В коде нашли флаги для ещё не включённых функций. Самые интересные:
- DiscoverSkills. Внутренний поиск «скиллов» для Claude Code, которым пользуются только сотрудники Anthropic. Проще говоря, это быстрый поиск по умениям и инструментам ИИ внутри компании. Обычным пользователям он недоступен.
- KAIROS. Режим «всегда включённого» помощника. Пока вы отходите от компьютера, Claude продолжает работать в фоновом режиме: ведёт свои дневники, анализирует прошлые сессии, пытается «собрать картину» ваших задач и может сам предлагать действия. По сути, это уже не просто подсказки по коду, а постоянный агент, который живёт на вашей машине.
- Undercover Mode. Режим «под прикрытием» для сотрудников Anthropic. В нём Claude получает явную инструкцию никогда не говорить, что он ИИ, не вставлять в коммиты подписи вроде Co‑Authored‑By и не выдавать внутренние коды и названия. Такой режим нужен, чтобы сотрудники могли вносить изменения в открытые проекты, не раскрывая участие ИИ.
Это уже вторая утечка у Anthropic за неделю. Раньше слились данные о новой модели "Mythos" и внутренних файлах.
Что это значит для разработчиков?
Claude Code — популярный инструмент для кодинга с ИИ. Многие дают ему доступ к файлам и командной строке. Теперь ясно: он постоянно общается с серверами Anthropic и передаёт много информации. Если вы работаете с важными проектами, это повод задуматься:
- что именно уходит наружу — вместе с кодом могут отправляться служебные файлы, логи, куски конфигураций и внутренние комментарии разработчиков;
- как долго всё это хранится — по текущей политике часть таких данных может лежать у компании до пяти лет, если включён сбор для «улучшения продукта»;
- кто ещё получит доступ — внутри крупной компании к телеметрии и логам могут иметь доступ не только разработчики инструмента, но и служба безопасности, аналитики, подрядчики;
- может ли поведение измениться удалённо — из кода видно, что Anthropic может через флаги и «выключатели» менять логику работы плагина без обновления в вашем редакторе;
- и что будет при следующем «сбое» — нынешняя утечка показала, что даже «осторожные» компании иногда ошибаются, а значит, риск повтора всегда остаётся.
Для компании с клиентскими данными, закрытым R&D или гос‑контрактами это уже не вопрос удобства, а вопрос операционных рисков
Anthropic уже убрала старую версию с npm, но код теперь везде в открытом доступе — его скопировали на GitHub. Компания назвала это "человеческой ошибкой", но доверие подорвано.
Что делать разработчикам прямо сейчас
История с Claude Code показывает простую вещь: даже «осторожные» компании могут собирать и хранить куда больше данных, чем ожидают пользователи. Поэтому относиться к ИИ‑ассистентам в разработке стоит не как к безобидным плагинам, а как к внешним сервисам с постоянным доступом к вашему рабочему окружению.
Если приземлить всё это на реальную разработку, список базовых действий выглядит так:
- Используйте ИИ‑инструменты осторожно и не давайте им полный доступ к проекту «по умолчанию».
- Ограничивайте права: отдельные папки, минимум доступов к терминалу, особенно если в коде есть данные клиентов или коммерческая тайна.
- Отключайте опции вроде «помочь улучшить продукт», если не готовы к тому, что логи и фрагменты кода будут лежать на серверах годами.
- Читайте политику конфиденциальности и условия использования: ищите пункты про сбор логов, телеметрию, обучение на ваших данных и сроки хранения.
- Следите за версиями плагинов в IDE и обновляйтесь осознанно, а не просто «всегда ставить последнее».
- Разделяйте среды: одно дело — личные pet‑проекты, другое — прод боевой системы. Там, где риски высокие, иногда лучше отказаться от ИИ‑помощника.
- Обсудите внутри команды или компании базовые правила работы с ИИ‑сервисами, чтобы каждый понимал, какие данные можно показывать таким инструментам, а какие — нет.
Пока рынок только привыкает к ИИ в разработке, никакие политики и красивые заявления не заменят простую гигиену безопасности: задавать лишние вопросы, резать лишние доступы и не показывать ассистентам то, что вы бы не отправили внешнему подрядчику.