Он доступен на Github.StableLM — это набор альфа-версий языковых моделей с 3 млрд и 7 млрд параметров, рассказала Stability AI. По её словам, разработчики могут «изучать, использовать и адаптировать» продукт для коммерческих и исследовательских целей в соответствии с лицензией Creative Commons Attribution-Share Alike 4.0 — то есть с указанием авторства и изменений.С помощью StableLM можно генерировать текст и код. Модели обучали на «экспериментальном» наборе данных The Pile — он содержит информацию из разных источников вроде Wikipedia, Stack Exchange, PubMed и других, отметило The Verge. «Изобилие» данных позволило компании, по её же словам, добиться «хорошей результативности» при наличии небольшого числа параметров: 3 и 7 млрд против 175 млрд у GPT-3.Пример сгенерированного кодаРазработчики государственного и частного секторов могут настроить работу моделей под себя, чтобы защитить конфиденциальные данные пользователей и своих внутренних ИИ-решений, уточнила Stability AI. Она также добавила: запустить StableLM можно на большинстве устройств.Оценить работу модели с 7 млрд параметров можно в чат-боте на сайте для разработчиков Hugging Face. В будущем компания обещала выложить полный технический отчёт по StableLM и опубликовать модели с большим количеством параметров — это 15 млрд и 65 млрд соответственно.Ранее на vc.ru об этом рассказал пользователь Евгений Вилков.#новость #stablediffusion #нейросети
Stable Diffusion вообще красавцы. Уделали Dall-E по полный, и сделали это c open source.
Уделали Dall-E
Это примерно одно и тоже. Генерируется непотребство всякое.
Не ту компанию назвали OpenAI
Тяжко с ним будет общаться))
А причем здесь русский язык?)
Почему же, открытый код помогает другим разработчикам и я думаю многим не пофиг