OpenAI представила первую за шесть лет open-weight модель — GPT-OSS

OpenAI выпустила две языковые модели с открытым весом — GPT-OSS-120b и GPT-OSS-20b, доступные бесплатно под лицензией Apache 2.0. Обе можно запускать на «железе» пользователя: 120b требует одну GPU с 80 ГБ памяти, а 20b работает на 16 ГБ VRAM. Модели реализованы в формате MXFP4 и доступны на Hugging Face, AWS, Azure, Databricks и других платформах.

GPT-OSS поддерживают 128K контекста — модели способны обрабатывать до 128 000 токенов за один запрос. Это позволяет анализировать десятки страниц текста целиком: например, загружать большие документы, не обрезая их, и сохранять контекст на протяжении всей сессии. Такой объём в несколько раз превышает стандартные лимиты у большинства аналогичных ИИ.

Производительность моделей сопоставима с закрытыми аналогами: GPT-OSS 120b набирает 79,8% на экзамене AIME 2024 (математика) и 2029 Elo на платформе Codeforces (программирование). В некоторых тестах, например, на медицинские запросы и сложные задачи по математике, модель даже обходит закрытую o4 mini от самой OpenAI.

Безопасность стала ключевым фокусом: модели прошли стресс-тестирование, включая fine-tuning на вредоносных датасетах, и аудит независимыми экспертами. OpenAI также запустила конкурс Red Teaming с призовым фондом $500 тыс. для выявления уязвимостей.

Выход open-weight моделей может изменить правила игры для корпоративных пользователей: теперь возможен локальный хостинг, тонкая настройка и снижение зависимости от облаков и API. Microsoft адаптирует 20b под Windows через ONNX Runtime.

1
Начать дискуссию