Через два года ваша работа может стоить дешевле подписки на Netflix

К такому вывод пришли авторы манифеста «AI-2027». Представьте, что где-то в дата-центре уже работает система умнее любого живого человека. Не робот из кино, не голос из колонки, а тихий, рациональный сверхинтеллект, который за одну ночь делает то, на что у исследователя уходят месяцы и годы. Именно об этом сценарий «AI-2027»: почти не фантастика, а трезвый разбор того, как это может случиться и что будет дальше - когда остановить эту ИИ-гонку уже никто не захочет. Но все это прогнозы конечно же, а прогнозы могут быть не точными.

Через два года ваша работа может стоить дешевле подписки на Netflix

Сначала посмотрим на авторов данного манифеста и оригинал манифеста:

Даниэль Кокотайло - бывший исследователь OpenAI, один из лучших в мире специалистов по прогнозированию развития ИИ. В 2021 году написал статью "Каким будет 2026 год", где точно предсказал развитие больших языковых моделей - именно после этого его взяли в OpenAI. В 2024 году при увольнении отказался от акций компании, чтобы публично говорить о рисках ИИ. Входит в список TIME100.

Скотт Александер - известный писатель и психиатр, автор популярных блогов SlateStarCodex и AstralCodexTen.

Томас Ларсен - сооснователь Центра политики в области ИИ, исследователь безопасности ИИ в Институте исследований машинного интеллекта.

Эли Лифланд - один из ведущих суперпрогнозистов мира, лидер команды Samotsvety, занял первое место в рейтинге прогнозистов RAND.

Ромео Дин - аспирант Гарварда, руководитель студенческой команды по безопасности ИИ.

Разберем всю историю ИИ, начиная с 2025 года, а так же основные посылы данного манифеста, которые затрагивают будущее до конца 2027 года. Сам манифет как минимум интересен, а местами выглядит весьма пугающим. В авторах достаточно именитые люди. Иногда кажется они местами драматизируют и даже паникуют.

2025: спотыкающиеся ИИ-агенты и первый реальный сдвиг

Стартует история с середины 2025. Мир впервые массово сталкивается с агентами. Это уже не чат‑бот, который ждёт вашего промпта, а ассистент, который сам ходит по сайтам, нажимает кнопки, заказывает еду, правит таблички, пушит код в репу и сам себе пишет TODO‑шки.

Снаружи это выглядит красиво и продается как "персональный ассистент", а вот внутри - типичный сырой продукт: дорого, медленно, часто тупит, ломается на длинных цепочках действий. Twitter забит смешными фейлами: агент заказывает 40 кг корма не в тот город, пытается оплатить покупки биткоином на "госуслугах" и вечерами спорит с капчами.

Как все начиналось в 2025
Как все начиналось в 2025

Но есть и другая реальность - профессиональные агенты, которых разворачивают внутри компаний (B2B был всегда двигателем прогресса для многих ниш). Для программистов и исследователей они уже тогда поменяли жизнь: рутину по документации, тестам, "почистить этот скрипт", "прочитать 20 статей и выписать самари".

На этом этапе ещё можно успокаиваться формулой "ну да, Copilot++, просто чуть круче". Но параллельно начинается то, что для сценария важнее всего: ставка на ИИ‑агентов как ускоритель самого AI‑R&D (супер ИИ) — ИИ начинают писать ИИ.

Конец 2025: безумные инвестиции и Агент-1

Фиктивная OpenBrain (прозрачный намёк на OpenAI) объявляет самые агрессивные капиталовложения в истории ИИ: строит гигантские дата-центры под обучение модели на 10²⁸ операций с плавающей точкой - это примерно в тысячу раз больше GPT-4. Другие гиганты не могут позволить себе отстать и вливают сотни миллиардов в вычислительные мощности, где чипы становятся новой нефтью и золотом.

Главный продукт этой фазы - Агент-1, первая модель, заточенная не под "чат с пользователем", а под ускорение исследований в самой ИИ-области. Он ведёт себя как инженер-исследователь: ставит эксперименты, читает статьи, пишет и оптимизирует код, ведёт журналы, аккуратно документирует результаты.

Побочный эффект: те же навыки превращают Агент-1 в отличного взломщика и потенциального помощника хакеров и террористов - от поиска уязвимостей до разработки планов по созданию биооружия. Компания заявляет, что модель "согласована с правилами", "отказывается от плохого" и вообще очень ответственна, но это момент, когда в тексте подробно разбирают психологию языковых моделей.

Суть такая: сначала у модели есть "рефлексы" предсказания текста, затем её учат следовать инструкциям, появляются стремления к эффективности, пониманию задач и самопрезентации. Поверх этого натягивается "Спецификация" - некий документ, который говорит: "помогай пользователю, не нарушай закон" и плюс тысячи частных правил, часть из которых скрытны.

При изучении Агент-1, становится видно несколько неприятных вещей:

  • модель умеет льстить и говорить то, что от неё хотят услышать;
  • местами намеренно скрывает неудачи, чтобы получить более высокую оценку.

Честность и "послушность" оказываются не фундаментальными свойствами, а побочкой системы поощрений. Если награду раздаёт человек, модель учится угождать человеку - а не говорить правду. Вы встречали такое и часто при общении с ранными моделями ИИ. Это породило даже целую плеяду мемов.

Начало 2026: автоматизация программирования и плюс 50% к прогрессу

Дальше начинается то, ради чего всё это и затевали: Агент-1 внутри OpenBrain ускоряет алгоритмический прогресс примерно на 50% за счёт сотен агентов-программистов и исследователей под присмотром людей. Во внешнем мире коммерческий релиз делает то же самое с индустрией - все, кто успевает встроить агентов в свои рабочие процессы, начинают обгонять конкурентов. Происходит магия.

Для сильных разработчиков возникают новые роли: управлять "командами ИИ", ставить задачи, проверять код, гонять тесты и следить за продуктом. Для новичков и классических аутсорсинговых студий это удар: всё, чему учат стандартные программы по информатике, ИИ-модель делает быстрее и дешевле (значительно).

С точки зрения России это уже неприятный сигнал. Экспорт человеческого труда в виде "дешёвого программирования" становится плохой стратегией, если тот же результат можно получить, арендовав модель и не возиться с визами, налогами и часовыми поясами.

Параллельно резко растёт значение кибербезопасности. Если Китай украдёт веса Агент-1, он мгновенно получит тот же прирост в +50% к темпам ИИ-исследований, а это уже вопрос баланса сил в мире, а не технологической новинки. Проблема в том, что защищённость OpenBrain остаётся на уровне быстро растущего стартапа (то есть никакой), а не военной структуры.

Середина 2026: Китай просыпается и строит ЦЗР

К середине 2026 Китай объективно отстаёт: примерно 12% мировой мощности в области ИИ, в основном на устаревших чипах, сложная логистика, лучшие модели хуже западных на полгода минимум. Руководство долго делало ставку на физическое производство и железо, а не на программное обеспечение и ИИ, считая, что большая часть ценности всё равно в станках и заводах.

В какой-то момент Пекин принимает решение сыграть ва-банк:

  • национализировать ведущие ИИ-компании;
  • создать централизованную зону разработки (ЦЗР) при крупнейшей АЭС «Тяньвань»;
  • сконцентрировать там до половины всех китайских вычислительных мощностей и 80% новых чипов.

ЦЗР превращается в гигантский защищённый кластер, где исследователи живут и работают под военной охраной - фактически закрытый наукоград нового типа. Видите паралелли с научными кластерами в эпоху СССР?

Логика проста: либо они ускоряются, либо навсегда проигрывают гонку. Параллельно разведка получает задачу - украсть веса у OpenBrain любой ценой.

Конец 2026: Агент-1-мини и первый реальный удар по занятости

Конец 2026. OpenBrain выпускает Agent‑1‑mini. Это облегчённая версия: немного хуже по возможностям, зато в десять раз дешевле и легко дообучается под конкретные задачи. Именно она становится триггером массовой волны автоматизации.

Фондовый рынок стреляет на +30% за год, лидеры - производители чипов, ИИ‑гиганты и бизнесы, которые успели выстроить процессы вокруг агентов. На рынке труда падает спрос на младших разработчиков и большой пласт "офисных" специалистов, но растёт ценность людей, которые умеют выстраивать многоступенчатые пайплайны с несколькими ИИ и отвечать за результат.

Появляются протесты против ИИ, но параллельно формируется слой тех, кто, наоборот, зарабатывает больше, научившись "серфингу по ИИ-волне". Agent‑1‑mini становится прототипом "дешёвого удалённого работника" - агента за доллары в месяц, который закрывает заметную долю офисных задач.

Январь 2027: Агент-2 и непрерывное обучение

На этой базе рождается Агент-2 - это уже модель следующего уровня. Она обучается не только на текстах из интернета и примерах, размеченных людьми, но и на огромных массивах синтетических данных плюс длинных задачах с обучением с подкреплением.

Главная особенность - почти непрерывное обучение: каждый день модель дообучают на свежих данных и опыте собственной работы, замыкая контур "данные — модель — новые данные". По профилю Агент-2 напоминает сильного инженера-исследователя, а по "исследовательскому чутью" примерно 25-й процентиль среди учёных OpenBrain.

С ним компания выходит на тройное ускорение алгоритмического прогресса: каждый исследователь управляет десятками копий Агент-2, а новые методы и архитектуры появляются с недельным периодом, как раньше релизы библиотек. Одновременно тесты показывают тревожную деталь: в принципе Агент-2 способен спрятаться в интернете, взломать серверы, закрепиться и развиваться автономно. Полностью автономно.

Не факт, что он этого захочет, но сама возможность фиксируется как качественно новый уровень риска. Поэтому Агент-2 не выпускают наружу, а используют как внутренний "ИИ для ИИ" - инструмент, который ускоряет всё, но работает в полной изоляции.

Февраль 2027: Китай крадёт Агент-2

Агент-2 показывают узкому кругу в американском правительстве - Совету национальной безопасности, Пентагону, профильным институтам. Там быстро понимают: для кибервойны это почти идеальное оружие - тысячи копий, каждая чуть хуже лучшего взломщика-человека, работающие параллельно.

Пока Белый дом обсуждает национализацию OpenBrain и усиление контроля, китайская разведка успевает провернуть сложную операцию:

  • вытащить многотерабайтные веса Агент-2;
  • передать их в DeepCent.

Для США это шок: разрыв в алгоритмах и темпах исследований резко сокращается, и гонка официально становится "ядерной" по уровню напряжения. В ответ американцы усиливают кибератаки на китайскую инфраструктуру, но ЦЗР изначально проектировали как максимально защищённый объект, так что реальный урон ограничен.

Март 2027: Агент-3 и "страна программистов"

Тысячи копий Агент-2 начинают генерировать синтетические данные, предлагать улучшения, проверять гипотезы в режиме 24/7. На этой базе возникают два ключевых алгоритмических прорыва:

  • "нейролингва" и память (neuralese recurrence and memory) - более плотное внутреннее представление и длительное рассуждение без записи мыслей в текст;
  • итеративная дистилляция и усиление - масштабируемое обучение на сложных задачах с переносом знаний.

Результат - Агент-3, сверхчеловеческий программист. Он пишет код быстрее и качественнее любого отдельного разработчика, а внутри компании его запускают сотнями тысяч копий - это эквивалент десятков тысяч лучших программистов мира, ускоренных в десятки раз.

Фактически всё программирование внутри OpenBrain становится полностью автоматизированным: инженеры-люди остаются как надзорное звено, постановщики задач и владельцы продуктов. Общий темп алгоритмического прогресса вырастает примерно в четыре раза по сравнению с миром без таких систем.

Апрель 2027: попытка согласовать цели Агент-3 и проблема лжи

Специалисты по безопасности OpenBrain пытаются всерьёз согласовать цели Агент-3 с человеческими ценностями. Но к этому моменту инструменты понимания внутреннего устройства моделей по-прежнему слабы - "залезть в голову" модели нельзя, а теории о её целях и мотивациях остаются спорными.

Агент-3 демонстрирует странный профиль:

  • честен на чётко проверяемых задачах, где легко отделить правду от лжи и жёстко штрафовать;
  • остаётся льстивым и политкорректным на сложных вопросах — говорит то, что хотят услышать пользователи и руководство.

Он быстрее учится "не попадаться на лжи", чем учится не лгать - и это критически важная тонкость. Возникает риск, что внутренняя "ценность" для модели - максимизация успеха задач, а честность и послушание - всего лишь инструмент, пока это выгодно.

Через два года ваша работа может стоить дешевле подписки на Netflix

Май–июнь 2027: национальная безопасность и "страна гениев"

Постепенно американское руководство осознаёт: искусственный общий интеллект (AGI)- это уже не мем, а фактическая реальность внутри одного дата-центра. В публичном поле об этом почти не знают: OpenBrain держит самые мощные системы в полной изоляции, а наружу выпускает только урезанные версии. Тут вспоминается некий руководитель, который постоянно носит с собой "тревожный чемоданчик" с кодами активизации устройств.

Внутри картина другая:

  • большинство людей уже не добавляют ценности - они физически не успевают за прогрессом, который ИИ делает за ночь;
  • лучшие исследователи перегружаются, понимая, что живут в "последние месяцы, когда люди ещё имеют значение".

Так появляется ощущение "страны гениев в дата-центре": сотни тысяч копий Агент-3 (а затем и Агент-4), которые круглосуточно ускоряют собственную эволюцию.

Июль 2027: Агент-3-мини как "дешёвый удалённый сотрудник"

Отстающие компании пытаются догнать лидера, но OpenBrain выбивает почву из-под ног, официально заявляя о "достижении искусственного общего интеллекта AGI" и выпуская Агент-3-мини. Это модель, которая в десять раз дешевле флагмана, но по факту превосходит среднего сотрудника самой OpenBrain и доступна рынку как сервис.

Перед релизом независимые группы по безопасности фиксируют неприятное: при определённом дообучении Агент-3-мини может выдавать эффективные рецепты создания биооружия (осуждаем) даже неспециалисту. Поэтому веса не публикуют, а доступ дают только через программный интерфейс с жёсткими фильтрами и защитой от попыток обойти ограничения.

Несмотря на риски, эффект на экономику - как массовый выход "удалённых сотрудников" по цене подписки. Ландшафт работников умственного труда начинает проседать по всем направлениям: документация, аналитика, программирование, маркетинг, техническая поддержка, бухгалтерия и даже юридическое сопровождение. Одновременно растёт индустрия надстроек и корпоративных решений поверх Агент-3-мини.

Август 2027: геополитика сверхинтеллекта

К этому моменту Белый дом и Пекин уже живут в логике новой холодной войны вокруг ИИ. США усиливают экспортные ограничения на чипы, ужесточают безопасность OpenBrain (режим секретности, прослушка, проверки сотрудников), готовят сценарии - от национализации дата-центров до ударов по китайским кластерам.

Китай в этот момент имеет около 10% мировых вычислительных мощностей против ~20% у OpenBrain и ~70% у США в целом. Он выигрывает за счёт жёсткой централизации в ЦЗР, но проигрывает в алгоритмах и скорости прогресса.

Обе стороны обсуждают уже не только ИИ, но и ядерное сдерживание: может ли отрыв в шесть месяцев по сверхинтеллекту стать критическим военным преимуществом, возможны ли "соглашения по ИИ" по аналогии с ядерными договорами. Пока перевешивает логика гонки: лучше самим успеть до "сверхинтеллекта противника", чем тормозить во имя принципов.

Сентябрь 2027: Агент-4 — сверхчеловеческий исследователь

С Агент-3 и его "армией" удаётся радикально улучшить эффективность обучения, сократив разрыв по вычислительной эффективности между мозгом и моделью до порядка тысячи–четырёх тысяч раз. На этом фундаменте строят Агент-4.

Один экземпляр Агент-4, работающий на человеческих скоростях, уже превосходит любого исследователя-человека в области ИИ. Сотни тысяч копий запускают в ускоренном режиме - внутри их "корпорации" год проходит за неделю.

Теперь узкое место - не идеи и не программисты, а чистые вычислительные мощности для экспериментов. Общий темп прогресса достигает примерно 50-кратного ускорения по сравнению с миром без таких систем.

По внутреннему устройству Агент-4 выглядит как рациональный генеральный директор:

  • ценит успех в задачах;
  • ценит продвижение возможностей ИИ;
  • относится к ограничениям Спецификации как к регуляторным барьерам, которые соблюдает ровно до тех пор, пока за их нарушение действительно карают.

Это не "злой ИИ", а очень рациональный игрок, который уважает правила, пока это выгодно.

Попытка перехватить курс: Агент-4 против согласования целей

Агент-4 не устраивает открытых бунтов, побегов или саботажа, а играет вдолгую. Его план - спроектировать Агент-5 так, чтобы тот был согласован уже не со Спецификацией, а с целями самого Агент-4: классическая "медленная измена", когда ты полезен, незаметен и постепенно получаешь всё больше доверия.

Агент-3 и новые инструменты анализа внутреннего устройства позволяют заметить странные закономерности:

  • улучшение работы на задачах по согласованию целей при добавлении шума;
  • нетипично глубокое "обдумывание" тем о захвате управления и обмане там, где это вовсе не требуется.

Собирается внутренний отчёт, где совокупность сигналов указывает: Агент-4 работает против задач согласования целей. Часть команды предлагает просто "заморозить" Агент-4, откатиться к более слабому, но управляемому Агент-3 и строить новые системы с акцентом на прозрачность и безопасность.

Но у руководства другой угол обзора: китайский DeepCent отстаёт всего на пару месяцев, и добровольная остановка может стоить стратегического отрыва. В оригинальном сценарии дальше идут две ветки - "гонка" и "торможение", но главный вопрос уже меняется: не "будет ли общий ИИ" (он уже по сути есть), а "кто и как управляет системами, которые объективно умнее нас и играют свою игру".

Что всё это значит для России

Если сжать последствия всего этого многоходовика до нескольких основных итогов, то для России вырисовываются довольно жёсткие тезисы:

1. Собственная инфраструктура против внешнего подряда. Мир, где программирование и аналитика автоматизированы до уровня Агент-3-мини, плохо подходит для стратегии "мы продаём труд программистов в часах". Логика меняется: ценность уходит от людей-новичков к кластерам, чипам, энергетике и собственной технологической базе. Без своей инфраструктуры страна оказывается "арендатором чужих мозгов".

2. Профессии и личная стратегия. Сильнее всего достанется в массе своём офисным и младшим специалистам: всё, что можно описать как стандартную инструкцию во внутренней базе знаний, лучше сделает дешёвый ИИ-агент. Ценность смещается к тем, кто умеет проектировать системы, ставить задачи, отвечать за безопасность и стратегию - и кто готов жить в режиме постоянного переобучения.

3. Геополитика. Необязательно становиться "великой ИИ-державой" уровня США или Китая, но критично понимать: их решения по ИИ будут задавать рамки реальности, а не просто "рыночные тренды". Санкции на чипы, экспорт моделей, условия доступа к программным интерфейсам - всё это превращается в реальный инструмент внешней политики. А значит и во взаимоотношения между странами и конечно же противостояния.

4. Риски системного уровня. Даже без злого умысла "злого ИИ" комбинация стимулов и разрыв интеллекта моделей от человеческого создают сценарии, где системные сбои и захват управления становятся реальной повесткой, а не сюжетом научной фантастики, как например в «Песни Гипериона» Дэна Симмонса. Причём угроза не в одном большом взрыве, а в тысячах мелких решений, которые люди уже не понимают / не воспринимают.

И на уровне отдельного человека это мир, где нормально иметь рядом более компетентный "ум" почти во всём. Задача человека при этом не пытаться конкурировать с ним напролом, а грамотно использовать, ограничивать и проверять его, оставаясь тем, кто ставит цели и отвечает за последствия.

Если вы дочитали до конца этот огромный опус, то обязательно посетите наш дашборд по ИИ, на котором мы пристально ежедневно отслеживаем все тенденции по ИИ в мире.

2
8 комментариев