Конец эры ChatGPT?
Ключевые фигуры мира ИИ, создатель AlphaGo Дэвид Сильвер и «отец» обучения с подкреплением Ричард Саттон, опубликовали совместную работу, которая по сути объявляет конец текущей эпохи развития ИИ. Если коротко: парадигма, породившая ChatGPT и все современные LLM, почти исчерпала себя.
📉 Тупик «эры человеческих данных»
Современные ИИ, от Gemini до Claude, достигли невероятных высот, обучаясь на гигантских объёмах информации, созданной людьми. Они блестяще имитируют человеческие способности. Но в этом и заключается их фундаментальное ограничение.
- Данные заканчиваются. Почти все высококачественные данные в интернете, на которых можно было обучить сильные модели, уже использованы. Прогресс, движимый исключительно «скармливанием» новых текстов, очевидно замедляется.
- Имитация — не инновация. Модели, обученные на человеческих текстах, не могут выйти за пределы существующих знаний. Они не совершат научное открытие и не придумают новую технологию, потому что этого просто нет в обучающих данных.
🚀 Наступает «Эра Опыта»
Чтобы двигаться дальше, к сверхчеловеческому интеллекту, нужен новый источник данных. И этот источник — собственный опыт ИИ-агента, полученный при взаимодействии с реальным или цифровым миром. Это триумфальное возвращение обучения с подкреплением (RL), но на совершенно ином уровне.
Хороший пример — недавний прорыв DeepMind с AlphaProof. Эта система взяла «серебро» на Международной математической олимпиаде. Начав с ~100 тысяч доказательств, созданных людьми, она затем сгенерировала сто миллионов новых, просто взаимодействуя с системой формальной логики. Она училась на собственном опыте, а не на человеческих примерах.
💡 Три столпа новой эры
Сильвер и Саттон выделяют несколько ключевых характеристик агентов нового поколения:
🔸 Потоки опыта (Streams). Агенты будут учиться не в рамках коротких сессий «вопрос-ответ», а непрерывно, в течение долгого времени. Представьте ИИ-тренера по здоровью, который месяцами анализирует данные с ваших носимых устройств, чтобы давать персонализированные советы, адаптируясь к долгосрочным трендам вашего организма. (Собственно, так сейчас и делают те же Whoop.)
🔸 Заземленные действия и награды (Grounded Actions & Rewards). Взаимодействие с миром будет не только текстовым. Агенты будут действовать через API, управлять компьютерными интерфейсами и роботами. А их цели будут определяться не оценками людей (prejudgement), а реальными сигналами из окружения (grounded rewards).
Например, успех научного ИИ-ассистента будет измеряться реальным снижением уровня CO₂ в атмосфере, а не тем, понравилась ли его гипотеза человеку. Это единственный способ превзойти человеческие предубеждения и открыть что-то новое.
🔸 Нечеловеческое мышление (Non-human Reasoning). Агенты перестанут просто копировать человеческие цепочки рассуждений. Они смогут открывать и использовать собственные, более эффективные способы мышления, как это сделал AlphaProof, находя решения математических задач путями, которые сильно отличаются от человеческих.
Это, возможно, самый радикальный и пугающий аспект новой эры — отказ от человеческой логики как от золотого стандарта.
🤖 Что это значит для всех нас?
Мы переходим от AI, который знает, к AI, который учится. Гонка технологий смещается от сбора ещё больших датасетов к созданию сложных, богатых сред, в которых агенты смогут получать опыт. Вместо «специалистов по данным» индустрии понадобятся «архитекторы миров и систем мотивации».
Новое поколение ИИ-систем будет не просто улучшенными чат-ботами. Это будут автономные учёные, инженеры и ассистенты, способные на реальные открытия. Но вместе с колоссальным потенциалом приходят и новые риски: как обеспечить безопасность и контроль над системами, которые действуют автономно, обучаются непрерывно и мыслят не так, как мы?
Эра человеческих данных была впечатляющей прелюдией. Но настоящее шоу только начинается.
Подписывайтесь на Telegram Нейрократия.