МЫ НЕ ХОТИМ ИИ-ПОМОЩНИКА. МЫ ХОТИМ ИИ-НАЧАЛЬНИКА
Claude Opus 4.6: от помощника к автопилоту, от автоматизации действий — к автоматизации субъектности
5 февраля 2026 года компания Anthropic выпустила модель Claude Opus 4.6 — продукт, который крупные корпорации называют началом эпохи «работы на автопилоте» (vibe working), когда искусственный интеллект берёт на себя владение целыми рабочими процессами.
Адаптивное мышление. Команды агентов. Контекстное окно в миллион токенов. Технически — впечатляет.
Но главный продукт здесь — не рост производительности.
Главный продукт — комфорт делегирования.
Мы покупаем не агента. Мы покупаем алиби.
И это раскрывает о природе человека больше, чем любой эталонный тест.
Что произошло (коротко, чтобы понимать масштаб)
Anthropic анонсировала Claude Opus 4.6 — обновление флагманской модели, которое позиционируется как переход от «помощника» к «агенту».
Технические параметры:
- Контекстное окно: до 1 млн токенов (бета) — первая модель семейства Opus с таким объёмом
- Удержание контекста: рост с 18,5% до 76% в тесте MRCR v2 (поиск факта в большом массиве текста)
- Абстрактное мышление: 68,8% в ARC AGI 2 против 37,6% у предыдущей версии и 54,2% у GPT-5.2
- Рабочие задачи: 1606 Elo в тесте GDPval-AA (финансы, юриспруденция, корпоративные процессы) — на 144 пункта выше GPT-5.2 и на 190 выше Opus 4.5
- Агентное программирование: 65,4% в Terminal-Bench 2.0 — лучший результат среди всех моделей
- Цена: $5/$25 за миллион токенов — без изменений
Новые возможности:
- "Команды агентов" (Agent Teams) в Claude Code — несколько агентов работают параллельно над разными частями задачи
- "Адаптивное мышление" (adaptive thinking) — модель сама выбирает глубину рассуждений в зависимости от сложности задачи
- API сжатия контекста — автоматическое сокращение истории диалога для длительных сессий
- Интеграция с PowerPoint — создание презентаций напрямую в приложении
- Более 500 zero-day уязвимостей в открытом коде, обнаруженных моделью без специальных инструкций
Отзывы корпоративных клиентов (из официального релиза):
- Rakuten: «Claude Opus 4.6 автономно закрыл 13 задач и распределил ещё 12 между нужными командами за один день, управляя организацией из ~50 человек в шести репозиториях»
- Notion: «Самая сильная модель, которую выпустил Anthropic. Она берёт сложные запросы и действительно доводит их до конца»
- Devin: «Увеличила процент обнаружения ошибок в наших внутренних тестах»
Глава продуктового направления Anthropic Скотт Уайт назвал это началом «работы по наитию», когда ИИ не помогает с отдельными задачами, а берёт на себя владение рабочими процессами целиком.
На этом технический обзор закончен. Дальше — о том, что это раскрывает о нас.
А теперь давайте честно
Я прочитал десятки материалов об этом релизе — от официального пресс-релиза до разборов в TechCrunch, CNBC, VentureBeat.
Тон одинаковый: восторг, цифры роста, примеры успеха. Критики — ноль.
И стало ясно главное: это не история о технологии.
Это диагностика того, чего мы, люди, отчаянно хотим.
Язык выдаёт желание. Посмотрите на формулировки.
В официальном релизе: «Модель знает, когда эскалировать задачу человеку».
В блоге Microsoft Azure: «Она понимает нормы и конвенции профессиональных доменов».
В CNBC: «Это начало работы по наитию, когда люди могут наконец реализовывать свои идеи».
Стоп.
Модель не знает. Модель не понимает. У неё нет осознания собственных границ.
Есть классификатор сложности задачи, обученный на статистических паттернах. Если в тексте присутствуют определённые маркеры и нет явного алгоритма решения — срабатывает триггер «передать человеку».
Это условная логика с вероятностными весами.
Но мы хотим, чтобы она знала. Хотим, чтобы понимала.
Потому что тогда можно делегировать не задачу, а ответственность.
Что мы "купили" на самом деле
Возьмём кейс Rakuten.
Из официального релиза: «Модель управляла организацией из ~50 человек, закрывая продуктовые и организационные решения и зная, когда эскалировать».
Что значит «управляла организацией»?
Руководитель — это не распределение задач в системе.
Руководитель — это:
- разрешение конфликтов между людьми
- учёт эмоционального состояния команды
- мотивация выгоревших
- обратная связь с учётом личного контекста
- выбор между формальной задачей и отношениями
Модель делает триаж: анализирует метки, зависимости, правила маршрутизации. Это автоматизация распределения задач с расширенным контекстом.
Но в тексте написано: «управляла организацией из 50 человек».
И мы верим.
Почему?
Потому что нам нужен именно такой начальник.
Который не задаёт неудобных вопросов. Не замечает, что ты пишешь код в два ночи. Не спрашивает, почему задача сорвана на неделю.
Идеальный руководитель — тот, кто не видит в тебе человека. Только задачу и результат.
И вот появляется машина, которая действительно его не видит.
Идеально.
Со-производство иллюзии (или почему преувеличение — это не обман)
Anthropic не врёт. Они просто не корректируют нашу интерпретацию.
Когда они пишут «модель знает, когда эскалировать», технически это означает: классификатор сложности на основе статистических паттернов.
Когда мы читаем «модель знает, когда эскалировать», онтологически мы слышим: цифровой интеллект с самосознанием границ собственной компетенции.
Между этими двумя смыслами — пропасть.
Но именно эта пропасть и есть продукт.
Не модель. Не код. А психологическая конструкция: право делегировать ответственность, сохранив иллюзию контроля.
Anthropic даёт язык, который позволяет в это верить. При этом технически не врёт.
Двусмысленность — не баг коммуникации. Это фича продуктовой стратегии.
Мы ХОТИМ верить, что модель "знает". Anthropic предоставляет формулировки, которые делают эту веру комфортной.
Это не обман. Это со-творчество желаемой реальности.
Мы уже это проходили
XIII–XVII века. Европа изобретает юридическое лицо — компанию, корпорацию.
Юридическая фикция: сущность, которая может владеть собственностью, заключать контракты, нести ответственность. Но эта сущность — не человек. Это абстракция.
Зачем это было нужно?
Для делегирования ответственности.
«Компания обанкротилась, но я лично не виноват». «Корабль затонул с грузом, но я защищён ограниченной ответственностью». «Корпорация нарушила закон, но меня лично не привлечь».
Юридическое лицо — первая технология снятия личной ответственности. Создание субъекта-посредника между действием и последствием.
Это породило капитализм как систему. Не потому что капитализм хорош или плох. А потому что капитализм требует масштаба, который невозможен, когда каждое действие персонально привязано к конкретному человеку.
Юрлицо — это юридическая фикция, которой придали субъектность, чтобы люди могли действовать без полной ответственности.
ИИ-агент — это то же самое, но для рабочих процессов.
«Модель так решила, я лично не виноват». «Алгоритм ошибся, но я просто использовал инструмент». «Агент распределил задачи неправильно, но я следовал его рекомендациям».
Мы создаём псевдо-субъект между нашим решением и его последствием. Чтобы можно было действовать, но не отвечать.
История повторяется. Только масштаб другой.
Юрлицо делегировало ответственность за капитал. ИИ-агент делегирует ответственность за мышление.
Потому что мы устали быть субъектами
Вот в чём правда
Мы не хотим помощника, который помогает нам принимать решения. Мы хотим агента, который принимает решения вместо нас.
Потому что субъектность — это тяжело.
Это ответственность за последствия. Это необходимость думать, когда думать не хочется. Это выбор, когда хочется, чтобы выбрали за тебя.
И вот приходит машина и говорит: «Я возьму это на себя».
Не в буквальном смысле, конечно. Юридически ответственность всё равно на тебе.
Но психологически — ты освобождён.
Ты делегировал. Машина «решила». Машина «знает». Машина «поняла».
А ты просто выполняешь то, что она предложила.
Ты теперь не автор решения. Ты его исполнитель.
Комфортно.
Почему именно сейчас это «зашло»?
Потому что выгорание knowledge workers достигло критической массы. Pandemic remote work. Размытие границ работы и жизни. Постоянная включённость. Истощение от бесконечных решений.
ИИ-агент — это не технологический прогресс. Это терапия для выгоревших.
«Ты можешь не думать, я подумаю за тебя».
Anthropic попала в момент, когда люди готовы платить за передачу ответственности.
Два типа автоматизации (или почему Opus 4.6 — это не эволюция, а революция)
Нам говорят: это улучшенный Copilot. Это эволюция помощника. Это апгрейд.
Нет.
Это качественный сдвиг. Переход от одного типа автоматизации к другому.
Тип 1 — Автоматизация действия:
Станок вместо руки. Калькулятор вместо счётов. Excel вместо бухгалтерских книг. GitHub Copilot вместо автодополнения кода.
Человек остаётся субъектом решения, машина — инструмент. Ответственность на человеке. Человек решает ЧТО делать, машина помогает КАК.
Тип 2 — Автоматизация субъектности:
Юридическое лицо вместо владельца (XIII век). ИИ-агент вместо менеджера (2026).
Машина становится псевдо-субъектом решения, человек — надсмотрщик. Ответственность юридически на человеке, психологически на машине. Машина решает И что, И как. Человек одобряет или отклоняет.
Claude Opus 4.6 с Agent Teams и adaptive thinking — это переход от типа 1 к типу 2.
Но это называют «улучшением», а не качественным сдвигом.
Почему?
Потому что признать сдвиг — значит признать, что меняется не инструмент, а мы сами. Что мы передаём машине не действие, а субъектность. Что мы отказываемся от авторства собственных решений.
Это страшно признавать.
Проще назвать это «апгрейдом».
Адаптивное мышление — автоматизация метапознания
Теперь о самом тонком.
Функция "adaptive thinking": модель «улавливает контекстные подсказки о том, сколько усилий использовать для расширенного мышления».
Четыре уровня:
- low — пропускает thinking для простых задач
- medium — умеренное рассуждение
- high (по умолчанию) — использует extended thinking когда это ценно
- max — максимальные возможности для сложных проблем
В официальном релизе написано, что Opus 4.6 «часто думает глубже и тщательнее пересматривает свои рассуждения перед тем, как прийти к ответу. Это даёт лучшие результаты на сложных проблемах, но может добавить затраты и латентность на простых».
Рекомендация: «Если вы обнаружите, что модель перебарщивает с думаньем, мы рекомендуем понизить effort с high на medium».
Стоп.
Давайте осознаем, что здесь происходит.
Это не просто «модель решает, когда думать глубже».
Это автоматизация метакогнитивного уровня — того, что отличает осознанное мышление от автоматического.
Эволюция автоматизации:
XVIII-XIX века: автоматизировали физические действия (станки вместо рук). XX век: автоматизировали рутинное мышление (калькуляторы, компьютеры вместо счётов). Наше время: автоматизировали само суждение о том, что требует мышления.
Мы делегируем не задачу. Мы делегируем оценку сложности задачи.
А оценка сложности — это уже половина решения.
Если модель решила, что задача простая (low effort) — мы не будем думать глубоко. Если сложная (max effort) — включим внимание.
Мы передали ей триаж нашего собственного мышления.
И даже ощущение, что модель «слишком много думает» — это параметр, который мы настраиваем.
Мы управляем интенсивностью её псевдо-размышлений, вместо того чтобы размышлять самим.
Это не помощь в мышлении. Это замена мышления о мышлении.
Корпоративная среда как подготовленная почва
Теперь самое неприятное.
Модель показала 1606 Elo на GDPval-AA — тесте, который измеряет «экономически ценные задачи в финансах, юриспруденции и других доменах».
Это на 144 пункта выше GPT-5.2. На 190 выше Opus 4.5.
Звучит впечатляюще. Но что это значит?
Что работа финансовых аналитиков, юристов, корпоративных менеджеров уже настолько формализована, что машина может определят доя нее бенчмарки.
Что есть стандартизированный набор задач, на которых можно померить качество.
Что эта работа уже сведена к паттернам.
Если модель может «управлять организацией из 50 человек», распределяя задачи по репозиториям — это значит, что работа этих 50 человек уже была сведена к тегам и зависимостям.
Они уже не люди. Они взаимозаменяемые юниты с навыками в системе управления проектами.
Если модель может показывать 60,7% на Finance Agent (анализ SEC-документов) — это значит, что работа финансовых аналитиков уже была сведена к извлечению паттернов из отчётности.
Если модель может находить 500+ zero-day уязвимостей в открытом коде «из коробки» — это значит, что даже security research уже достаточно механистичен.
Машина не заменяет сложную работу. Она заменяет работу, которую уже упростили до машинного уровня.
Парадокс профессионализма:
Чем больше профессионал формализует своё знание — best practices, SOPs, frameworks — тем легче его заменить.
Но корпорации требуют формализации. Для масштабирования, обучения, контроля качества.
Ловушка: чтобы быть хорошим сотрудником, ты должен сделать себя заменимым. Задокументировать процесс. Написать инструкцию. Создать чеклист. Стандартизировать подход.
И когда ты это сделал — приходит ИИ и читает твою документацию.
ИИ не вытесняет людей. ИИ занимает места, откуда людей уже вытеснили раньше — корпоративными процессами, стандартизацией, KPI, системами управления задачами, требованиями к формализации всего.
Профессионализм был переопределён.
Раньше: уникальное мастерство, интуиция, опыт.
Теперь: соблюдение стандартов, воспроизводимость, измеримость.
Когда профессионализм стал означать «делай по инструкции», он перестал требовать человека.
Вопрос, который никто не задаёт
Скотт Уайт, глава продуктового направления Anthropic, сказал CNBC:
«Все видели эту трансформацию в software engineering за последние полтора года, когда появилась концепция vibe coding, и люди теперь могут делать вещи со своими идеями... Мы начинаем видеть то же самое с другими типами knowledge workers».
Вот что меня в этом высказывании бесит.
Оно предполагает, что у нас есть выбор. Что мы — субъекты этого процесса. Что мы начинаем "видеть".
Нет.
Мы не выбираем. За нас уже выбрали.
Технология не спрашивает, как мы хотим работать. Она создаёт условия, в которых определённый способ работы становится единственным экономически эффективным.
А потом мы задним числом рационализируем это как «наш выбор».
VentureBeat пишет: релиз Opus 4.6 состоялся через 72 часа после запуска OpenAI Codex desktop app.
Это «подчёркивает бешеный темп конкуренции в инструментах разработки».
44% enterprise-компаний уже используют Anthropic в продакшене. Anthropic подписала term sheet на $10 млрд при оценке $350 млрд.
Это не «мы начинаем видеть». Это «мы не успеваем за рынком».
Цена Opus 4.6 осталась прежней — $5/$25 за миллион токенов. При том, что вычислительная стоимость контекста в 1М токенов выросла.
Это означает: либо архитектурные прорывы, которые Anthropic не раскрывает, либо компания субсидирует пользователей, создавая зависимость через демпинг.
Вопрос не в том, «как мы будем выстраивать команды с ИИ».
Вопрос в том, будут ли в этих командах люди, когда построение закончится.
Что мы празднуем на самом деле
TechCrunch пишет о «Agent Teams» — новой функции, где «вместо одного агента, последовательно работающего над задачами, вы можете разделить работу между несколькими агентами — каждый владеет своей частью и координируется напрямую с другими».
Скотт Уайт сравнивает это с «талантливой командой людей, работающих на вас».
Сегментация ответственности агентов позволяет им «координироваться параллельно и работать быстрее».
Читаю это и понимаю: мы празднуем собственную ненужность.
Мы восхищаемся машиной, которая делает то, что раньше делали мы.
Мы аплодируем технологии, которая доказывает, что наша работа была недостаточно сложной, чтобы называться незаменимой.
«Талантливая команда, работающая на вас» — но кто «вы» в этой формулировке?
Менеджер, который даёт задачи агентам?
А что происходит, когда агенты научатся ставить задачи сами — как модель в Rakuten, которая «справлялась и с продуктовыми, и с организационными решениями»?
И самое страшное — мы делаем это добровольно.
С энтузиазмом. С надеждой.
Потому что быть замененным — это освобождение от ответственности.
Это разрешение не быть субъектом.
Это право сказать: «Это не я решил. Это модель предложила. Я просто согласился».
Вместо вывода: тупик или точка бифуркации?
Claude Opus 4.6 — технически впечатляющий продукт.
68,8% на ARC AGI 2 — почти удвоение результата в тесте на абстрактное мышление. 65,4% на Terminal-Bench 2.0 — лучший результат в агентном кодировании. Контекстное окно в 1М токенов. Agent Teams. Adaptive thinking.
Всё работает.
Но давайте посмотрим честно на то, что автоматизируется.
ИИ сейчас автоматизирует, вычищая человеческое из процессов:
Эмпатию (тимлид, который не видит выгорания).
Телесность (работа без учёта физических и эмоциональных состояний).
Непредсказуемость (стандартизация того, что не хотело стандартизироваться).
Контекст отношений (триаж задач без понимания динамики команды). Интуицию (замена на статистические паттерны).
Мы стандартизируем профессионализм до воспроизводимых процедур, а потом удивляемся, что процедуры может выполнять машина.
Вопрос: не тупик ли это?
Не ведёт ли вычищение человеческого из процессов к деградации самих процессов?
К системам, которые формально работают, но производят бессмысленность?
К организациям-зомби, где задачи выполняются, но цели потеряны?
Альтернатива существует. Но она требует противоположного движения.
Не делегирование, а сотворчество. Не соответствие, а со-ответственность.
Сотворчество — это когда человек и ИИ создают то, что ни один из них не создал бы в одиночку.
Когда машина усиливает человеческое, а не заменяет его. Когда технология расширяет субъектность, а не вычищает её.
Но вот парадокс:
Сотворчество требует БОЛЬШЕЙ субъектности, а не не меньшей.
Большей осознанности. Большей ответственности. Большего присутствия.
Нужно знать, что ты хочешь создать, чтобы использовать ИИ как партнёра. Нужно понимать контекст, чтобы оценить предложение машины. Нужно быть автором, чтобы выбирать из вариантов.
А мы, судя по восторгам от Claude Opus 4.6, идём в противоположную сторону.
Мы хотим меньше думать, а не больше. Меньше решать, а не осознаннее выбирать. Меньше отвечать, а не глубже понимать.
Вопрос не «возможна ли другая парадигма».
Она возможна.
Вопрос — хватит ли у нас смелости её выбрать, когда делегирование так соблазнительно комфортно?
P.S. Если вы дочитали до конца и чувствуете дискомфорт — это нормально. Дискомфорт означает, что что-то резонирует. Вопрос только в том, что вы с этим резонансом сделаете.
P.P.S. Этот текст написан мною в соавторстве с Claude Sonnet 4.5.
Что именно здесь предложила эта модель, а что - автор, вы не узнаете.
Может, весь анализ про «иллюзию субъектности» — идея Antropic, донесенная через общение с чатботом? Может, он убедил автора, что вы делегируете ответственность, чтобы вы приняли это как неизбежность?
Кому вы делегировали свое мышление в эти пятнадцать минут чтения?
Источники:
- Официальный релиз Anthropic
- Claude Opus 4.6 - страница модели
- Advancing finance with Claude Opus 4.6
- Microsoft Azure Blog
- TechCrunch: Anthropic releases Opus 4.6 with new 'agent teams'
- CNBC: Anthropic launches Claude Opus 4.6 as AI moves toward a 'vibe working' era
- Axios: Anthropic's Claude Opus 4.6 uncovers 500 zero-day flaws in open-source code
- VentureBeat: Anthropic's Claude Opus 4.6 brings 1M token context and 'agent teams'
- The New Stack: Anthropic debuts Opus 4.6 with standout scores for solving hard problems
Больше — в телеграм-канале «Лабиринт отражений»: https://t.me/otrazhenie_lab