Подписывайся на тг-канал: https://t.me/cocal_ai
Рады стараться
Боимся представить))
ждем, когда AI-адвокаты будут защищать AI-агентов
ждем первые кейсы для публикации
присылайте, мы любим похихикать
Спасибо за ваш комментарий. Но, к сожалению, наши мнения расходятся по тому, что вы написали выше
«Токенизация не заточена под язык» — неверно.
Наоборот, качественная токенизация должна учитывать особенности языка. Иначе морфологически сложные слова (как в русском) дробятся неестественно, что ухудшает понимание модели и увеличивает расходы на инференс.
«Разбивка зависит от мощности оборудования» — нет.
Разбивка зависит от токенизатора и его словаря, которые задаются до обучения. Железо влияет на скорость и масштаб обучения, но не на структуру токенов
«Параметры не равно мощность» — мы и не утверждали, что чем меньше параметров, тем она мощнее
Мы просто показала, что меньшая по объёму модель, за счёт умной настройки под язык, переобучения эмбеддингов и собственного токенизатора — показала лучшие результаты в конкретных задачах
Готовы подискутировать с вами по этому поводу! Круто, что вы включились
Рады, что вы искупались и трипанули🫰🏼
Мы писали статью, но с нейросетью в обнимку, как и положено в 2025 году
Minimax был золотым спонсором и раздавал бесплатные токены участникам, а veo в 6 раз дороже и не была в списке спонсоров. Плюс veo 2 был в бета версии на тот момент.