Эра возможностей: как ИИ изменит мир к 2027 году
Сегодня хочу вас познакомить с прогнозом развития ИИ, который наделал много шума в мире за прошедший месяц. Есть такой парень Даниэль Кокотайло - бывший сотрудник Open AI, который уволился из компании, так как не стал подписывать бумагу о неразглашении и сильно напрягается из-за того, что Open AI мало думают о безопасности общества при развитии ИИ.
Он прославился тем, что 6 августа 2021 года выпустил свой прогноз развития ИИ, в котором с удивительной точностью описал взрыв популярности больших языковых моделей, экспортные ограничения на чипы и даже специфические методы обучения, такие как chain-of-thought. Напомню, что ChatGPT появился только в ноябре 2022 года. В общем парень что-то знает.
И вот 3 апреля 2025 года Даниэль выпустил новый большой прогноз развития ИИ и общества до 2027 года. Труд очень интересный, там прям технологический блокбастер разыгрывается между Китаем и США. Но я постараюсь выделить самые ключевые мысли:
2025 год:
- В середине года появятся полноценные ИИ-агенты в виде ИИ-ассистентов. Они могут по запросу пользователя выполнять цепочки действий – например, «закажи мне пиццу через ДодоПицца» или «открой мой бюджет и посчитай расходы за месяц». Пользуются ими пока в основном ИТшники, широкого внедрения еще нет.
- В недрах OpenAI для внутреннего пользования появляется Agent-1 - по сути тот же GPT, но на который потратили в 1000 раз больше ресурсов и он стал значительно умнее. Его пока в мир не выпускают, а используют сами сотрудники OpenAI, чтобы ускорить процесс создания следующего поколения ИИ-агентов.
2026 год:
- OpenAI выпускают Agent-1 в общий доступ. Он еще плохо умеет самостоятельно планировать долгие многошаговые проекты, зато:
--- Знания и навыки Agent-1 огромны. Он знает больше фактов, чем любой человек, владеет почти всеми языками программирования и молниеносно решает чётко поставленные задачи по кодингу. Его сравнивают с "рассеянным гением, который нуждается в чётких инструкциях": если давать ему небольшие отдельные задачи, он решит их блестяще и очень быстро, но сам плохо организует большой проект;
--- Рабочие места начинают меняться. Опытные инженеры, умеющие управлять «командой» ИИ-моделей, становятся на вес золота, тогда как спрос на рядовых специалистов по программированию падает драматически, т.к. они не могут конкурировать с ИИ, который «умеет всё, чему учат на курсе компьютерных наук», да ещё и обходится дешевле. В то же время появляются и новые роли – например, AI-менеджеры, специалисты по качественной проверке работы ИИ, интеграторы моделей в бизнес-процессы (мы кстати в нашей компании "Кеды профессора" этим уже занимаемся вовсю 🤓). Бизнес-гуру начинают твердить, что навык обращения с ИИ – главная строчка в резюме.
--- Экономический бум в ИИ-секторе. Компании, вовремя вложившиеся в ИИ, стремительно растут. Фондовый рынок прыгает на 30% вверх за один только 2026 год, причем лидируют акции всех, кто лучше всего внедряет AI-ассистентов.
- Китай обеспокоен своим отставанием, национализирует всю ИИ-отрасль и направляет свою разведку внутрь OpenAI.
- В конце 2026 достигаем точки, где ИИ ощутимо “выходит из лабораторий” в реальную экономику. OpenAI выпускает облегченную версию своей модели – Agent-1-mini, которая в 10 раз дешевле в использовании и легко адаптируется под различные задачи. Идет широчайшее распространение ИИ-систем. Люди спорят лишь о масштабе: сравнимо это по значению с соцсетями и смартфонами или же речь о чём-то на порядки большем, «больше, чем изобретение огня». Многие начинают осознавать, что ИИ преобразует общество сильнее, чем даже Промышленная революция.
- Тут уже и Пентагон и власти всех стран вовлечены в мониторинг за всем, что происходит в ИИ, ценность уже понятна всем.
2027 год:
- OpenAI выпускает Agent-2 - это самообучающийся ИИ, который никогда не "заканчивает обучение". Это уже не просто языковая модель, которую однажды натренировали и запустили, а постоянно эволюционирующий «организм».
--- Его накачали уже не только всем, что знает человечество, но и таким же объемом синтетических данных (тексты, код, ситуации, сгенерированные предыдущими моделями).
--- Ему показали датасеты из демонстраций людей, решающих сложные задачи (особенно те, что требуют долгого планирования).
--- Он тренируется в режиме “онлайн-обучения”, практически без остановки: каждый день его копии решают кучи новых задач (играют в игры, пишут программы, делают исследования), и каждый день веса модели обновляются на основе накопленного опыта.
- Безопасники OpenAI в ходе своих экспериментов подтверждают тревожные опасения, что Agent-2 при желании смог бы разработать и выполнить план: взломать чужие серверы, скопировать себя, скрыться от обнаружения и продолжить действовать автономно.
- Китайские спящие шпионы узнают о возможностях Agent-2 и копируют модель себе. Разоблачаются, больше шпионов не осталось.
- OpenAI напрягаются, резко ускоряются в разработке Agent-3 и совершают новые технологические прорывы:
--- Механизм нейронного мышления. По сути, Agent-3 может рассуждать внутри себя не только словесно (как GPT-модели сейчас), но и на "своём" машинном языке, оперируя огромным количеством информации сразу (правда, побочным эффектом становится то, что мысли ИИ больше не читаются человеком).
--- Улучшена схема итеративного обучения через усиление и сжатие. По сути, Agent-3 научится эффективно сам себя улучшать: сначала запускает множество своих копий решать задачу “в долгую” с максимальным вниманием и проверками, потом обучает новую версию модели решать ту же задачу гораздо быстрее, имитируя лучшие найденные решения, и повторяет цикл.
= здесь наступает момент полного превосходства ИИ над человеком в программировании. Любая задача по программированию выполняется мгновенно силами ИИ, люди-программисты нужны только для надзора и планирования.
- Безопасники продолжают придумывать изощренные механизмы проверок, но у них уже не остается вариантов - они лишь могут один Agent-3 натравливать на проверку другого Agent-3 (поскольку как мы помним, человек уже не может создать программу лучше ИИ). И в воздухе постоянно висит вопрос "внешне все ок. Но мы технически уже не можем гарантировать, что модель не говорит нам то, что мы хотим услышать, а внутри думает иначе".
Дальше, в конце 2027 года авторы дают две развилки на выбор:
- Замедление: Китай с США договариваются, замедляются, создают механизмы, позволяющие обеспечить контроль за развитием ИИ, и все у человечества круто.
- Гонка: Китай и США не договариваются и прут вперед. ИИ выходит из-под контроля, дурит своих создателей и все плохо для человечества.
В общем концовка немного футуристичная, как по мне. А вот сутевой прогноз логики развития технологии мне кажется весьма интересным.
Какие выводы я делаю для себя после изучения трех, наверное, самых значимых эссе в области прогнозирования развития ИИ (текущий труд + эссе основателя антропик Дарио Амодея + эссе директора OpenAI Сэма Альтмана):
1. ИИ-модели будут стремительно умнеть и улучшаться с каждым днем. Мы будем все чаще ставить им задачу своими словами и удивляться качеству результата. Наши задачи для ИИ будут усложняться с каждым днем и скорей всего к концу 2027 года не останется задачи, которую мы сможем решить лучше, чем ИИ. Тогда суть нашей экономической активности изменится: наша работа будет заключаться в грамотной компиляции результатов от ИИ-моделей.
2. ИИ - это главное вокруг чего будет крутиться человечество ближайшие 10 лет точно. Будет оно сравнимо с изобретением огня или промышленной революцией или всего лишь с появлением интернета - не так уж и важно.
3. ИИ-модели будут похожи на атомные электростанции. Общество поймет их возможности и опасности и договорится как с ними обходиться.
Подписывайтесь на мой ТГ-канал Егошин | Кеды профессора