Т-Банк выпустил рассуждающую модель
Большая языковая модель с открытым кодом T-Pro 2.0 построена на базе Qwen3 32B.
Разработчики утверждают, что T-Pro 2.0 требуется в два раза меньше вычислительной мощности по сравнению с Qwen3 и DeepSeek R1. Это стало возможным из-за настройки модели для работы на русском языке.
В Т-Банке говорят, что на разработку T-Pro 2.0 было потрачено около 120 миллионов рублей.
T-Pro 2.0 доступна тут: https://huggingface.co/collections/t-tech/t-pro-20-68712f1e775d0f7b563daf52
Подписывайтесь на Telegram GPT/ChatGPT/AI Central Александра Горного.
Начать дискуссию