Программирование решено, дальше — циклы: создатель Claude Code о будущем ИИ-кодинга, а Правительство США хочет первым получать доступ к новым ИИ-моделям

Создатель Claude Code Борис Черни на конференции Sequoia AI Ascent 2026 описал новый режим работы с ИИ: вместо разовых запросов — десятки постоянно крутящихся агентных циклов. Для него самого программирование уже решено — с октября 2025 ни одной строки кода руками, рекорд за день — 150 PR с телефона, — но главный его тезис на сцене не про это, а про loops.

Программирование решено, дальше — циклы: создатель Claude Code о будущем ИИ-кодинга, а Правительство США хочет первым получать доступ к новым ИИ-моделям

Канал с гайдами и контентом по claude code, выкладываем новости (когда режут лимиты в 10 раз) и какие инструменты через claude реализуем для проектов, канал: https://t.me/claudedevolper

Loop — slash-команда в Claude Code, которая запускает повторяющуюся задачу через cron. Расписание любое: раз в минуту, каждые 5 минут, раз в день. Сейчас у Черни параллельно работает несколько десятков таких циклов:

  • один присматривает за пул-реквестами — автоматически чинит CI и делает rebase;
  • второй держит в порядке тестовый стенд — переписывает нестабильные тесты;
  • третий каждые 30 минут забирает фидбэк из Twitter и кластеризует его.

Anthropic уже вынесла этот режим на серверную сторону — фича называется Routines: задачи продолжают выполняться, даже если ноутбук закрыт. И именно этот сдвиг Черни считает ключевым: ИИ перестает быть инструментом, который дергаешь по запросу, и становится фоновой инфраструктурой, которая постоянно крутится вокруг инженера.

Причем уже без явной просьбы. Черни рассказал, что Claude 4.7 сам начинает запускать циклы, когда видит в них смысл. Один из примеров: он попросил модель подтянуть данные, а та ответила: "Я заметила, что эти данные меняются со временем, давай я запущу цикл и буду присылать тебе отчет каждые 30 минут". Он согласился и попросил доставлять отчеты в Slack — модель сама прицепила Slack через MCP и к этой задаче больше не возвращалась.

Сам Claude Code, по прогнозу Черни, через год может ужаться до 100 строк кода: защиты от промпт-инъекций, статическая валидация команд, permission-режимы и человек в цикле (human-in-the-loop) окажутся не нужны — модель к тому времени поумнее настолько, что сама будет делать все правильно.

Правительство США хочет первым получать доступ к новым ИИ-моделям

Администрация Дональда Трампа обсуждает указ (executive order) о создании рабочей группы по ИИ и государственной проверке новых моделей до их публичного релиза, сообщает The New York Times. На прошлой неделе с планами уже ознакомили CEO трех компаний — Anthropic, Google и OpenAI.

По данным газеты, обсуждаемая схема не предполагает права на блокировку релиза — речь о другом. Государство получает ранний доступ к новым моделям, чтобы оценить риски заранее и параллельно понять, можно ли применить их возможности в интересах Пентагона и разведки. Похожий подход уже работает в Британии: AI Security Institute тестирует передовые модели на соответствие стандартам безопасности до их публичного запуска. На американской стороне функции рецензента могут взять на себя АНБ, Управление национального кибердиректора Белого дома и Офис директора национальной разведки — единого ведомства по кибербезопасности в США нет.

Это резкая смена курса. С возвращения в Белый дом Трамп называл ИИ ключом к технологическому соревнованию с Китаем, отменил введенные при Байдене процедуры оценки безопасности и публично заявлял, что индустрию "не остановить дурацкими правилами". Все изменилось после анонса Mythos — модели Anthropic, способной находить критические уязвимости в софте на таком уровне, что компания отказалась выпускать ее в публичный доступ. Источники NYT в Белом доме объясняют разворот двумя соображениями: политическими рисками (если громкая кибератака произойдет с применением подобной модели, отвечать придется администрации) и желанием первыми получать доступ к кибервозможностям, полезным для Пентагона и разведки.

Параллельно изменилась расстановка фигур внутри администрации. В марте ушел главный по ИИ в Белом доме Дэвид Сакс, отвечавший за дерегуляторный курс. Его функции взяли на себя глава аппарата Сюзи Уайлс и министр финансов Скотт Бессент — оба намерены активнее заниматься ИИ-политикой. Обсуждается и роль Center for AI Standards and Innovation — агентства, созданного при Байдене для добровольной проверки моделей и фактически замороженного при Трампе.

Главное препятствие для этих планов — продолжающийся конфликт администрации с Anthropic. Весной Пентагон расторг контракт на $200 млн и присвоил компании статус угрозы для цепочки поставок (серьезное ограничение, которое ранее получали китайские компании), после чего Anthropic подала на правительство в суд. При этом военные продолжают использовать Claude в системе Maven для анализа разведданных и подбора целей в войне в Иране, а АНБ уже применяет Mythos для оценки уязвимостей в правительственной инфраструктуре Microsoft. В прошлом месяце Уайлс и Бессент встречались с Дарио Амодеи, чтобы вернуть технологии Anthropic в государственные системы — но пока итоговое решение не озвучено.

Сами компании, по словам собеседников NYT, согласны не во всем: часть руководителей предупреждает, что избыточный надзор замедлит США в гонке с Китаем. На фоне этого общественные настроения в США склоняются к регулированию: по данным опроса Pew Research Center, 50% республиканцев и 51% демократов сейчас больше обеспокоены, чем взволнованы расширением использования ИИ в повседневной жизни. Любая обязательная проверка моделей перед релизом полностью противоречит тезису вице-президента Джей Ди Вэнса, который годом ранее в Париже говорил, что "будущее ИИ не выиграть переживаниями о безопасности — его выиграют те, кто строит [новые модели]".

Канал с гайдами и контентом по claude code, выкладываем новости (когда режут лимиты в 10 раз) и какие инструменты через claude реализуем для проектов, канал: https://t.me/claudedevolper

Программирование решено, дальше — циклы: создатель Claude Code о будущем ИИ-кодинга, а Правительство США хочет первым получать доступ к новым ИИ-моделям
Начать дискуссию