CALM это все равно что перестать говорить азбукой Морзе… и сразу перейти к разговору через «широкий поток мыслей».

Пока Трамп переговаривался с Си китайцы просто «стянули» очередную технологию у американцев.

Tencent + Tsinghua опубликовали статью под названием Continuous Autoregression Language Models (CALM), и она, по сути, уничтожает парадигму “следующего токена”, на которой строится каждый LLM.

Вместо того, чтобы прогнозировать «один токен за один раз», CALM прогнозирует непрерывные векторы, которые представляют несколько токенов одновременно.

Смысл: модель не думает “слово за словом”… она продумывает идеи на каждом шаге.

Вот почему это прорыв:

→ в 4 раза меньше шагов прогнозирования (каждый вектор = ~4 токена)

→ на 44% меньше вычислений для обучения

→ Нет дискретной лексики, только непрерывные рассуждения

→ Новая метрика (BrierLM) полностью заменяет perplexity

Они даже создали новый энергетический трансформатор, который обучается без softmax, без выборки токенов и без ограничения словарного запаса.

Это все равно что перестать говорить азбукой Морзе… и сразу перейти к разговору через «широкий поток мыслей».

Если так пойдет и дальше, то все современные магистратуры устареют.

Описание CALM
Описание CALM
Начать дискуссию