Походу, GPT-5.3 уже на выходе — и это один из самых мощных апдейтов OpenAI

В последние дни в сообществах обсуждается возможное обновление линейки моделей OpenAI, неофициально обозначаемое как GPT-5.3.

Походу, GPT-5.3 уже на выходе — и это один из самых мощных апдейтов OpenAI

На момент публикации OpenAI не делала официальных заявлений о существовании такой модели или её характеристиках.

Все сведения о GPT-5.3 основаны на неофициальных источниках и утечках. Часть подобных утечек в прошлом подтверждалась, часть — нет.

Считается, что версия GPT-5.2 могла быть промежуточной, не отражающей полный объём архитектурных изменений. Подобный подход OpenAI использовала ранее: модели появлялись в закрытых площадках под альтернативными названиями.

Самый обсуждаемый параметр: скорость генерации: около 2 000 токенов в секунду.

Для сравнения: Claude Code (Opus 4.5) - порядка 100 токенов/с;

В качестве объяснения высокой скорости упоминается использование решений Cerebras — специализированных ИИ-ускорителей с архитектурой, отличной от традиционных GPU-кластеров.

Главная идея заключается в том, чтобы отказаться от масштабирования модели на множество чипов и вместо этого использовать один крайне крупный процессор, способный вместить всю модель целиком. Основной продукт компании называется Wafer-Scale Engine.

В отличие от обычного процессора или GPU, которые представляют собой небольшие вырезанные куски кремниевой пластины, чип Cerebras использует практически всю пластину целиком, что позволяет разместить сотни тысяч вычислительных ядер и десятки гигабайт встроенной памяти SRAM на одном кристалле.

Такая архитектура решает одну из ключевых проблем работы больших языковых моделей на GPU - необходимость постоянного обмена данными между устройствами и связанные с этим задержки. Память и вычисления находятся в одной адресной области, что минимизирует узкие места и снижает латентность инференса.

Поэтому решения Cerebras могут быть интересны OpenAI для задач, где критична скорость отклика, например, в агентных системах и инструментах для кодирования, а не для стандартного распределённого обучения или массового API. В этом смысле Cerebras не заменяет GPU-инфраструктуру, а дополняет её для узкого класса задач, позволяя повысить эффективность и снизить задержки инференса.

Ранее представители OpenAI упоминали о неожиданных результатах, полученных в ходе предобучения новых моделей. Деталей раскрыто не было, но не исключено, что часть этих новшеств связана с оптимизацией под новые инфраструктурные ограничения.

По словам инсайдеров, релиз может случиться буквально на днях.

2
2 комментария