StableLM обучается новому экспериментальному набору данных, построенному на The Pile, но имеет в три раза больше токенов контента. Stable AI опубликуют подробную информацию об этом наборе данных в надлежащее время. Богатство этого набора данных дает StableLM удивительно высокую производительность в задачах разговора и кодирования, несмотря на его небольшой размер от 3 до 7 миллиардов параметров (для сравнения, GPT-3 имеет 175 миллиардов параметров).
Ссылка на телегу есть, на гитхаб нет
Дизлайк
https://github.com/Stability-AI/StableLM
Ну такое 😅
он хотел сказать, что данная задача православная
но она старалась, старалась, заметили?
Королевой!
Я так понял что в русский она не умеет