Как заявляют разработчики, модель стала еще умнее: ее дополнительно обучили на 170 млн пар «текст — изображение», а затем дообучали на отдельно собранном датасете из 2 млн пар изображений. И если в Kandinsky 2.0 было 2 млрд параметров, в Kandinsky 2.1 их 3,3 млрд.
Лайк за кандинского
Спасибо!
Ну и попугайчики
Попугайчики точно превзошли midjourney))
Всё-таки у stable diffusion пока что нет конкурентов. Можно и на компьютер установить (если не менее 8гб видеопамяти), можно пользоваться онлайн через google collab - и всё это абсолютно бесплатно. На хороших моделях пальцы и прочая сложная анатомия получается в разу лучше даже чем на midjourney v5. Так же изначально в оболочке automatic1111 есть и inpaint (лучший аналог этого пресловутого ластика от кандинского) и image to image и все возможные апскейлеры, и это я ещё не вспоминаю про безграничные возможности с плагинами от controlnet (так же бесплатными).
Если честно, детально не разбирался в работе stable diffuion, но обязательно нужно попробовать. И потом сравнить все, конечно;)
Может быть у вас есть примеры сгенерированных работ?
Автор не уточнил, что использовал четвёртую версию MidJourney. Сейчас уже доступна пятая и там всё намного круче, даже с пальцами всё ок, дело в том, что она доступна только в платной подписке на данный момент, но обещают скоро добавить в триальную.