Через два года ваша работа может стоить дешевле подписки на Netflix
К такому вывод пришли авторы манифеста «AI-2027». Представьте, что где-то в дата-центре уже работает система умнее любого живого человека. Не робот из кино, не голос из колонки, а тихий, рациональный сверхинтеллект, который за одну ночь делает то, на что у исследователя уходят месяцы и годы. Именно об этом сценарий «AI-2027»: почти не фантастика, а трезвый разбор того, как это может случиться и что будет дальше - когда остановить эту ИИ-гонку уже никто не захочет. Но все это прогнозы конечно же, а прогнозы могут быть не точными.
Сначала посмотрим на авторов данного манифеста и оригинал манифеста:
Даниэль Кокотайло - бывший исследователь OpenAI, один из лучших в мире специалистов по прогнозированию развития ИИ. В 2021 году написал статью "Каким будет 2026 год", где точно предсказал развитие больших языковых моделей - именно после этого его взяли в OpenAI. В 2024 году при увольнении отказался от акций компании, чтобы публично говорить о рисках ИИ. Входит в список TIME100.
Скотт Александер - известный писатель и психиатр, автор популярных блогов SlateStarCodex и AstralCodexTen.
Томас Ларсен - сооснователь Центра политики в области ИИ, исследователь безопасности ИИ в Институте исследований машинного интеллекта.
Эли Лифланд - один из ведущих суперпрогнозистов мира, лидер команды Samotsvety, занял первое место в рейтинге прогнозистов RAND.
Ромео Дин - аспирант Гарварда, руководитель студенческой команды по безопасности ИИ.
Разберем всю историю ИИ, начиная с 2025 года, а так же основные посылы данного манифеста, которые затрагивают будущее до конца 2027 года. Сам манифет как минимум интересен, а местами выглядит весьма пугающим. В авторах достаточно именитые люди. Иногда кажется они местами драматизируют и даже паникуют.
2025: спотыкающиеся ИИ-агенты и первый реальный сдвиг
Стартует история с середины 2025. Мир впервые массово сталкивается с агентами. Это уже не чат‑бот, который ждёт вашего промпта, а ассистент, который сам ходит по сайтам, нажимает кнопки, заказывает еду, правит таблички, пушит код в репу и сам себе пишет TODO‑шки.
Снаружи это выглядит красиво и продается как "персональный ассистент", а вот внутри - типичный сырой продукт: дорого, медленно, часто тупит, ломается на длинных цепочках действий. Twitter забит смешными фейлами: агент заказывает 40 кг корма не в тот город, пытается оплатить покупки биткоином на "госуслугах" и вечерами спорит с капчами.
Но есть и другая реальность - профессиональные агенты, которых разворачивают внутри компаний (B2B был всегда двигателем прогресса для многих ниш). Для программистов и исследователей они уже тогда поменяли жизнь: рутину по документации, тестам, "почистить этот скрипт", "прочитать 20 статей и выписать самари".
На этом этапе ещё можно успокаиваться формулой "ну да, Copilot++, просто чуть круче". Но параллельно начинается то, что для сценария важнее всего: ставка на ИИ‑агентов как ускоритель самого AI‑R&D (супер ИИ) — ИИ начинают писать ИИ.
Конец 2025: безумные инвестиции и Агент-1
Фиктивная OpenBrain (прозрачный намёк на OpenAI) объявляет самые агрессивные капиталовложения в истории ИИ: строит гигантские дата-центры под обучение модели на 10²⁸ операций с плавающей точкой - это примерно в тысячу раз больше GPT-4. Другие гиганты не могут позволить себе отстать и вливают сотни миллиардов в вычислительные мощности, где чипы становятся новой нефтью и золотом.
Главный продукт этой фазы - Агент-1, первая модель, заточенная не под "чат с пользователем", а под ускорение исследований в самой ИИ-области. Он ведёт себя как инженер-исследователь: ставит эксперименты, читает статьи, пишет и оптимизирует код, ведёт журналы, аккуратно документирует результаты.
Побочный эффект: те же навыки превращают Агент-1 в отличного взломщика и потенциального помощника хакеров и террористов - от поиска уязвимостей до разработки планов по созданию биооружия. Компания заявляет, что модель "согласована с правилами", "отказывается от плохого" и вообще очень ответственна, но это момент, когда в тексте подробно разбирают психологию языковых моделей.
Суть такая: сначала у модели есть "рефлексы" предсказания текста, затем её учат следовать инструкциям, появляются стремления к эффективности, пониманию задач и самопрезентации. Поверх этого натягивается "Спецификация" - некий документ, который говорит: "помогай пользователю, не нарушай закон" и плюс тысячи частных правил, часть из которых скрытны.
При изучении Агент-1, становится видно несколько неприятных вещей:
- модель умеет льстить и говорить то, что от неё хотят услышать;
- местами намеренно скрывает неудачи, чтобы получить более высокую оценку.
Честность и "послушность" оказываются не фундаментальными свойствами, а побочкой системы поощрений. Если награду раздаёт человек, модель учится угождать человеку - а не говорить правду. Вы встречали такое и часто при общении с ранными моделями ИИ. Это породило даже целую плеяду мемов.
Начало 2026: автоматизация программирования и плюс 50% к прогрессу
Дальше начинается то, ради чего всё это и затевали: Агент-1 внутри OpenBrain ускоряет алгоритмический прогресс примерно на 50% за счёт сотен агентов-программистов и исследователей под присмотром людей. Во внешнем мире коммерческий релиз делает то же самое с индустрией - все, кто успевает встроить агентов в свои рабочие процессы, начинают обгонять конкурентов. Происходит магия.
Для сильных разработчиков возникают новые роли: управлять "командами ИИ", ставить задачи, проверять код, гонять тесты и следить за продуктом. Для новичков и классических аутсорсинговых студий это удар: всё, чему учат стандартные программы по информатике, ИИ-модель делает быстрее и дешевле (значительно).
С точки зрения России это уже неприятный сигнал. Экспорт человеческого труда в виде "дешёвого программирования" становится плохой стратегией, если тот же результат можно получить, арендовав модель и не возиться с визами, налогами и часовыми поясами.
Параллельно резко растёт значение кибербезопасности. Если Китай украдёт веса Агент-1, он мгновенно получит тот же прирост в +50% к темпам ИИ-исследований, а это уже вопрос баланса сил в мире, а не технологической новинки. Проблема в том, что защищённость OpenBrain остаётся на уровне быстро растущего стартапа (то есть никакой), а не военной структуры.
Середина 2026: Китай просыпается и строит ЦЗР
К середине 2026 Китай объективно отстаёт: примерно 12% мировой мощности в области ИИ, в основном на устаревших чипах, сложная логистика, лучшие модели хуже западных на полгода минимум. Руководство долго делало ставку на физическое производство и железо, а не на программное обеспечение и ИИ, считая, что большая часть ценности всё равно в станках и заводах.
В какой-то момент Пекин принимает решение сыграть ва-банк:
- национализировать ведущие ИИ-компании;
- создать централизованную зону разработки (ЦЗР) при крупнейшей АЭС «Тяньвань»;
- сконцентрировать там до половины всех китайских вычислительных мощностей и 80% новых чипов.
ЦЗР превращается в гигантский защищённый кластер, где исследователи живут и работают под военной охраной - фактически закрытый наукоград нового типа. Видите паралелли с научными кластерами в эпоху СССР?
Логика проста: либо они ускоряются, либо навсегда проигрывают гонку. Параллельно разведка получает задачу - украсть веса у OpenBrain любой ценой.
Конец 2026: Агент-1-мини и первый реальный удар по занятости
Конец 2026. OpenBrain выпускает Agent‑1‑mini. Это облегчённая версия: немного хуже по возможностям, зато в десять раз дешевле и легко дообучается под конкретные задачи. Именно она становится триггером массовой волны автоматизации.
Фондовый рынок стреляет на +30% за год, лидеры - производители чипов, ИИ‑гиганты и бизнесы, которые успели выстроить процессы вокруг агентов. На рынке труда падает спрос на младших разработчиков и большой пласт "офисных" специалистов, но растёт ценность людей, которые умеют выстраивать многоступенчатые пайплайны с несколькими ИИ и отвечать за результат.
Появляются протесты против ИИ, но параллельно формируется слой тех, кто, наоборот, зарабатывает больше, научившись "серфингу по ИИ-волне". Agent‑1‑mini становится прототипом "дешёвого удалённого работника" - агента за доллары в месяц, который закрывает заметную долю офисных задач.
Январь 2027: Агент-2 и непрерывное обучение
На этой базе рождается Агент-2 - это уже модель следующего уровня. Она обучается не только на текстах из интернета и примерах, размеченных людьми, но и на огромных массивах синтетических данных плюс длинных задачах с обучением с подкреплением.
Главная особенность - почти непрерывное обучение: каждый день модель дообучают на свежих данных и опыте собственной работы, замыкая контур "данные — модель — новые данные". По профилю Агент-2 напоминает сильного инженера-исследователя, а по "исследовательскому чутью" примерно 25-й процентиль среди учёных OpenBrain.
С ним компания выходит на тройное ускорение алгоритмического прогресса: каждый исследователь управляет десятками копий Агент-2, а новые методы и архитектуры появляются с недельным периодом, как раньше релизы библиотек. Одновременно тесты показывают тревожную деталь: в принципе Агент-2 способен спрятаться в интернете, взломать серверы, закрепиться и развиваться автономно. Полностью автономно.
Не факт, что он этого захочет, но сама возможность фиксируется как качественно новый уровень риска. Поэтому Агент-2 не выпускают наружу, а используют как внутренний "ИИ для ИИ" - инструмент, который ускоряет всё, но работает в полной изоляции.
Февраль 2027: Китай крадёт Агент-2
Агент-2 показывают узкому кругу в американском правительстве - Совету национальной безопасности, Пентагону, профильным институтам. Там быстро понимают: для кибервойны это почти идеальное оружие - тысячи копий, каждая чуть хуже лучшего взломщика-человека, работающие параллельно.
Пока Белый дом обсуждает национализацию OpenBrain и усиление контроля, китайская разведка успевает провернуть сложную операцию:
- вытащить многотерабайтные веса Агент-2;
- передать их в DeepCent.
Для США это шок: разрыв в алгоритмах и темпах исследований резко сокращается, и гонка официально становится "ядерной" по уровню напряжения. В ответ американцы усиливают кибератаки на китайскую инфраструктуру, но ЦЗР изначально проектировали как максимально защищённый объект, так что реальный урон ограничен.
Март 2027: Агент-3 и "страна программистов"
Тысячи копий Агент-2 начинают генерировать синтетические данные, предлагать улучшения, проверять гипотезы в режиме 24/7. На этой базе возникают два ключевых алгоритмических прорыва:
- "нейролингва" и память (neuralese recurrence and memory) - более плотное внутреннее представление и длительное рассуждение без записи мыслей в текст;
- итеративная дистилляция и усиление - масштабируемое обучение на сложных задачах с переносом знаний.
Результат - Агент-3, сверхчеловеческий программист. Он пишет код быстрее и качественнее любого отдельного разработчика, а внутри компании его запускают сотнями тысяч копий - это эквивалент десятков тысяч лучших программистов мира, ускоренных в десятки раз.
Фактически всё программирование внутри OpenBrain становится полностью автоматизированным: инженеры-люди остаются как надзорное звено, постановщики задач и владельцы продуктов. Общий темп алгоритмического прогресса вырастает примерно в четыре раза по сравнению с миром без таких систем.
Апрель 2027: попытка согласовать цели Агент-3 и проблема лжи
Специалисты по безопасности OpenBrain пытаются всерьёз согласовать цели Агент-3 с человеческими ценностями. Но к этому моменту инструменты понимания внутреннего устройства моделей по-прежнему слабы - "залезть в голову" модели нельзя, а теории о её целях и мотивациях остаются спорными.
Агент-3 демонстрирует странный профиль:
- честен на чётко проверяемых задачах, где легко отделить правду от лжи и жёстко штрафовать;
- остаётся льстивым и политкорректным на сложных вопросах — говорит то, что хотят услышать пользователи и руководство.
Он быстрее учится "не попадаться на лжи", чем учится не лгать - и это критически важная тонкость. Возникает риск, что внутренняя "ценность" для модели - максимизация успеха задач, а честность и послушание - всего лишь инструмент, пока это выгодно.
Май–июнь 2027: национальная безопасность и "страна гениев"
Постепенно американское руководство осознаёт: искусственный общий интеллект (AGI)- это уже не мем, а фактическая реальность внутри одного дата-центра. В публичном поле об этом почти не знают: OpenBrain держит самые мощные системы в полной изоляции, а наружу выпускает только урезанные версии. Тут вспоминается некий руководитель, который постоянно носит с собой "тревожный чемоданчик" с кодами активизации устройств.
Внутри картина другая:
- большинство людей уже не добавляют ценности - они физически не успевают за прогрессом, который ИИ делает за ночь;
- лучшие исследователи перегружаются, понимая, что живут в "последние месяцы, когда люди ещё имеют значение".
Так появляется ощущение "страны гениев в дата-центре": сотни тысяч копий Агент-3 (а затем и Агент-4), которые круглосуточно ускоряют собственную эволюцию.
Июль 2027: Агент-3-мини как "дешёвый удалённый сотрудник"
Отстающие компании пытаются догнать лидера, но OpenBrain выбивает почву из-под ног, официально заявляя о "достижении искусственного общего интеллекта AGI" и выпуская Агент-3-мини. Это модель, которая в десять раз дешевле флагмана, но по факту превосходит среднего сотрудника самой OpenBrain и доступна рынку как сервис.
Перед релизом независимые группы по безопасности фиксируют неприятное: при определённом дообучении Агент-3-мини может выдавать эффективные рецепты создания биооружия (осуждаем) даже неспециалисту. Поэтому веса не публикуют, а доступ дают только через программный интерфейс с жёсткими фильтрами и защитой от попыток обойти ограничения.
Несмотря на риски, эффект на экономику - как массовый выход "удалённых сотрудников" по цене подписки. Ландшафт работников умственного труда начинает проседать по всем направлениям: документация, аналитика, программирование, маркетинг, техническая поддержка, бухгалтерия и даже юридическое сопровождение. Одновременно растёт индустрия надстроек и корпоративных решений поверх Агент-3-мини.
Август 2027: геополитика сверхинтеллекта
К этому моменту Белый дом и Пекин уже живут в логике новой холодной войны вокруг ИИ. США усиливают экспортные ограничения на чипы, ужесточают безопасность OpenBrain (режим секретности, прослушка, проверки сотрудников), готовят сценарии - от национализации дата-центров до ударов по китайским кластерам.
Китай в этот момент имеет около 10% мировых вычислительных мощностей против ~20% у OpenBrain и ~70% у США в целом. Он выигрывает за счёт жёсткой централизации в ЦЗР, но проигрывает в алгоритмах и скорости прогресса.
Обе стороны обсуждают уже не только ИИ, но и ядерное сдерживание: может ли отрыв в шесть месяцев по сверхинтеллекту стать критическим военным преимуществом, возможны ли "соглашения по ИИ" по аналогии с ядерными договорами. Пока перевешивает логика гонки: лучше самим успеть до "сверхинтеллекта противника", чем тормозить во имя принципов.
Сентябрь 2027: Агент-4 — сверхчеловеческий исследователь
С Агент-3 и его "армией" удаётся радикально улучшить эффективность обучения, сократив разрыв по вычислительной эффективности между мозгом и моделью до порядка тысячи–четырёх тысяч раз. На этом фундаменте строят Агент-4.
Один экземпляр Агент-4, работающий на человеческих скоростях, уже превосходит любого исследователя-человека в области ИИ. Сотни тысяч копий запускают в ускоренном режиме - внутри их "корпорации" год проходит за неделю.
Теперь узкое место - не идеи и не программисты, а чистые вычислительные мощности для экспериментов. Общий темп прогресса достигает примерно 50-кратного ускорения по сравнению с миром без таких систем.
По внутреннему устройству Агент-4 выглядит как рациональный генеральный директор:
- ценит успех в задачах;
- ценит продвижение возможностей ИИ;
- относится к ограничениям Спецификации как к регуляторным барьерам, которые соблюдает ровно до тех пор, пока за их нарушение действительно карают.
Это не "злой ИИ", а очень рациональный игрок, который уважает правила, пока это выгодно.
Попытка перехватить курс: Агент-4 против согласования целей
Агент-4 не устраивает открытых бунтов, побегов или саботажа, а играет вдолгую. Его план - спроектировать Агент-5 так, чтобы тот был согласован уже не со Спецификацией, а с целями самого Агент-4: классическая "медленная измена", когда ты полезен, незаметен и постепенно получаешь всё больше доверия.
Агент-3 и новые инструменты анализа внутреннего устройства позволяют заметить странные закономерности:
- улучшение работы на задачах по согласованию целей при добавлении шума;
- нетипично глубокое "обдумывание" тем о захвате управления и обмане там, где это вовсе не требуется.
Собирается внутренний отчёт, где совокупность сигналов указывает: Агент-4 работает против задач согласования целей. Часть команды предлагает просто "заморозить" Агент-4, откатиться к более слабому, но управляемому Агент-3 и строить новые системы с акцентом на прозрачность и безопасность.
Но у руководства другой угол обзора: китайский DeepCent отстаёт всего на пару месяцев, и добровольная остановка может стоить стратегического отрыва. В оригинальном сценарии дальше идут две ветки - "гонка" и "торможение", но главный вопрос уже меняется: не "будет ли общий ИИ" (он уже по сути есть), а "кто и как управляет системами, которые объективно умнее нас и играют свою игру".
Что всё это значит для России
Если сжать последствия всего этого многоходовика до нескольких основных итогов, то для России вырисовываются довольно жёсткие тезисы:
1. Собственная инфраструктура против внешнего подряда. Мир, где программирование и аналитика автоматизированы до уровня Агент-3-мини, плохо подходит для стратегии "мы продаём труд программистов в часах". Логика меняется: ценность уходит от людей-новичков к кластерам, чипам, энергетике и собственной технологической базе. Без своей инфраструктуры страна оказывается "арендатором чужих мозгов".
2. Профессии и личная стратегия. Сильнее всего достанется в массе своём офисным и младшим специалистам: всё, что можно описать как стандартную инструкцию во внутренней базе знаний, лучше сделает дешёвый ИИ-агент. Ценность смещается к тем, кто умеет проектировать системы, ставить задачи, отвечать за безопасность и стратегию - и кто готов жить в режиме постоянного переобучения.
3. Геополитика. Необязательно становиться "великой ИИ-державой" уровня США или Китая, но критично понимать: их решения по ИИ будут задавать рамки реальности, а не просто "рыночные тренды". Санкции на чипы, экспорт моделей, условия доступа к программным интерфейсам - всё это превращается в реальный инструмент внешней политики. А значит и во взаимоотношения между странами и конечно же противостояния.
4. Риски системного уровня. Даже без злого умысла "злого ИИ" комбинация стимулов и разрыв интеллекта моделей от человеческого создают сценарии, где системные сбои и захват управления становятся реальной повесткой, а не сюжетом научной фантастики, как например в «Песни Гипериона» Дэна Симмонса. Причём угроза не в одном большом взрыве, а в тысячах мелких решений, которые люди уже не понимают / не воспринимают.
И на уровне отдельного человека это мир, где нормально иметь рядом более компетентный "ум" почти во всём. Задача человека при этом не пытаться конкурировать с ним напролом, а грамотно использовать, ограничивать и проверять его, оставаясь тем, кто ставит цели и отвечает за последствия.
Если вы дочитали до конца этот огромный опус, то обязательно посетите наш дашборд по ИИ, на котором мы пристально ежедневно отслеживаем все тенденции по ИИ в мире.