Т-Банк выпустил рассуждающую модель

Большая языковая модель с открытым кодом T-Pro 2.0 построена на базе Qwen3 32B.

Разработчики утверждают, что T-Pro 2.0 требуется в два раза меньше вычислительной мощности по сравнению с Qwen3 и DeepSeek R1. Это стало возможным из-за настройки модели для работы на русском языке.

В Т-Банке говорят, что на разработку T-Pro 2.0 было потрачено около 120 миллионов рублей.

Подписывайтесь на Telegram GPT/ChatGPT/AI Central Александра Горного.

Начать дискуссию