AGI отменяется?
Глава OpenAI Сэм Альтман отпраздновал выход GPT-5 тем, что “отменил” термин AGI (Общий искусственный интеллект). В эфире CNBC он заявил, что вообще-то AGI — “не супер полезный термин”. Проблема в том, что разные компании и исследователи понимают AGI совершенно по-разному.
Интересно, что еще в начале 2025 года Альтман давал вполне четкое определение AGI как системы, которая будет на человеческом уровне справляться с задачами в разных областях. И хвастался, что в OpenAI уже понимают, как достигнуть AGI, и больше задумываются о создании сверхинтеллекта.
Альтман не один с такой позицией. Пару недель назад Дарио Амодеи (CEO Anthropic, создателей Claude) назвал AGI и сверхинтеллект маркетинговыми клише. Дарио заявил, что не знает сути этих терминов и предложил не зацикливаться на них, а просто развивать существующие ИИ.
Из крупных исследователей термина держится Демис Хассабис (Google DeepMind), который в подкасте Лексу Фридману дал 50% шанс на AGI в ближайшие 5-10 лет. Хассабис считает, что AGI должен обладать навыками во всех интеллектуальных сферах, и пока не знает, достаточно ли для этого просто наращивать мощности моделей или надо совершить 1-2 прорыва. В DeepMind работают над обоими направлениями.
На мой взгляд, термин AGI был удобным двадцать лет назад, когда искусственный интеллект человеческого уровня выглядел чем-то далеким, вроде точки на горизонте. По мере приближения, точка стала распадаться на детали — в случае с ИИ это отдельные навыки, которые развиваются с совершенно разной скоростью.
Проблема AGI в том, что сложно определить момент его появления. В некоторых интеллектуальных областях современные модели уже на голову превосходят образованного человека, в других — не дотягивают даже до 5-летнего ребенка. А если в будущем мы получим модель, которая выполняет 80% интеллектуальных задач лучше человека, но проваливается на 20%? Будет ли она AGI или нет?
Некоторые считают, что AGI обязательно должен обладать “самосознанием”. Но это вовсе не обязательно: есть вероятность, что и AGI, и даже сверхинтеллект будут развиваться как просто невероятно умные помощники. А настоящая инициативность, желание замутить какую-нибудь ерунду и посмотреть, что выйдет — навсегда останется за людьми. Обычный симбиоз, случаев которого полно в природе.
Каким будет следующий шаг к “ИИ нового поколения”? С 99% вероятностью — это возможность ИИ самостоятельно обучаться и переносить знания на новые области. Исследователи обсуждают несколько подходов к самообучению, но пока проблема в том, что узнавая что-то новое, ИИ забывает свои текущие знания.
Плюс сложность не только инженерная. Сейчас материалы для тренировки ИИ собираются и размечаются вручную. Но если модель начнет обучаться сама, то где гарантия, что она не наберется бесполезной информации, поразив создателей отрицательным ростом во всех бенчмарках?
А еще есть вопрос безопасности. Сейчас каждый ИИ проходит длительную проверку внутренними и внешними специалистами — и даже после этого случаются проблемы, которые правятся на ходу. С ИИ, обновляющим себя ежедневно, придется разрабатывать совершенно иные подходы, которые, с одной стороны, не будут мешать модели развиваться, а с другой — позволят оперативно находить и исправлять "дыры". А параллельно самим нам предстоит научиться доверять будущему ИИ больше, чем доверяем сейчас.
Пока нет даже примерных прогнозов, когда ИИ начнут обучаться в реальном времени. Но мы все ближе к этому: модели научились искать новую информацию в сети (это не равно постоянному обучению), выросло контекстное окно, в которое можно поместить знания, нужные для текущей беседы, появилась персонализация на основе прошлых чатов. Тот же Амодеи считает проблему обучения чисто технической, напоминая, что пару лет назад те же рассуждающие модели казались фантастикой. А сегодня эта функция есть у большинства ИИ.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.