Stable Diffusion XL 1.0: как пользоваться нейросетью для генерации изображений

Stable Diffusion XL 1.0 или SDXL — это модель генерации изображений, которая создаёт реалистичные изображения и разборчивый текст внутри картинки, отлично прорисовывает лица и улучшает композиции. В этой статье покажу как пользоваться нейросетью Stable Diffusion XL 1.0, как добиться более фотореалистичных детализированных результатов на примере своих работ.

Stable Diffusion XL 1.0 изображает разборчивый текст внутри картинки
Stable Diffusion XL 1.0 изображает разборчивый текст внутри картинки

Чтобы пользоваться нейросетью Stable Diffusion XL 1.0 для генерации изображений онлайн я использую тг бот нейросеть. В этом боте есть следующие модели:

Stable Diffusion XL 1.0 или SDXL модели доступные в боте
Stable Diffusion XL 1.0 или SDXL модели доступные в боте

Покажу примеры своих работ, которые сгенерировала в этом тг боте. Считаю, что голова художника должна быть свободной и совершенно не хочу углубляться в техническую часть по установке. Знаю, что можно развернуть код на свой компьютер или сервер с официального сайта. Однако стоимость и сложность высоки.

Промты для генерации изображений в нейросеть Stable Diffusion XL 1.0

Чтобы написать промты для генерации изображений удобно создавать роли для ChatGPT. Как создать роль и примеры ролей есть в моих прошлых статьях. Изображения в статье будут сгенерированы по этим промтам:

promt 1: a woman in dynamic pose, casual clothing, scared face, the wind blows your hair, natural shadow, highest detail, ((against the background of terrible slums and rusty pipes)) , distance, tilt shift, sideways, professional, 4k, high detail, play of light

перевод промта: женщина в динамичной позе, повседневная одежда, испуганное лицо, ветер развевает волосы, естественная тень, высочайшая детализация, ((на фоне жутких трущоб и ржавых труб)) , расстояние, сдвиг наклона, боком, профессионал, 4к, высокая детализация, игра света

promt 2: a male hunter, dressed in a weathered leather jacket, carrying a bow and arrows, kneeling beside a campfire, forest background, focused expression, hunting gear scattered around, twilight

перевод промта: мужчина-охотник, одетый в потертую кожаную куртку, с луком и стрелами, стоит на коленях у костра, лесной фон, сосредоточенное выражение лица, разбросанные вокруг охотничьи принадлежности, сумерки

Модели для Stable Diffusion XL 1.0 или SDXL

В модель включены знания о том, как должны выглядеть изображаемые объекты: люди, животные, деревья, дома. Разберём некоторые модели на примерах.

SDXL x6 — универсальная модель для создания реалистичных образов людей с возможностью применять художественные стили. На всех изображениях я применила стили: релизм, детализация, 3Д

SDXL x63 — модель SDXL похожа на предыдущую, но выражения лиц более динамичные.

SDXL Protovision — прекрасно подходит для создания портретов людей и других реалистичных изображений. Способна включать художественные стили и очень качественно рисовать различных существ, пейзажи и объекты.

SDXL Dreamshaper — модель, генерирующая арты и реалистичные картинки. Детально прорабатывать образы людей. На этой модели должна хорошо получиться генерация драконов и других сказочных персонажей. А я более чем довольна как Stable Diffusion XL 1.0 сгенерировал образы людей. В конце статьи покажу как я доработала некоторые понравившиеся изображения.

SDXL Juggernaut — эта модель считается одной из лучших для SDXL и не просто так. Она превосходна во всех жанрах. В прошлой статье все мои работы по роли «Путешествия» выполнены в этой модели.

SDXL DeepBlue — интересная аниме модель, генерирующая изображения в смешанном стиле: реализм и аниме.

SDXL Diamond — прекрасная модель для качественных художественных аниме-артов. Посмотрите какие игривые арты получаются.

SDXL Counterfeit — одна из лучших аниме моделей. Она соблюдает баланс между реалистичным аниме и артами. Важно помнить, что каждая аниме-модель даёт совершенно разные результаты по одним и тем же промптам.

Доработка сгенерированных изображений в нейросети Stable Diffusion XL 1.0

Мне нравится, когда всё необходимое для работы под рукой и в одном месте. Без сложностей в установке и заморочек в использовании. Поэтому доработку сделала тоже в тг боте. Пока прорывалась на автобусе через все пробки сгенерировала изображения в нейросети Stable Diffusion XL 1.0 и по горячим следам допилила их.

Как я доработала изображения? С помощью расширения ControlNet для нейросети Stable Diffusion XL 1.0. Нужна статья на тему использования ControlNet? Если нужна — вы знаете где меня найти.

Всем бодрых будней и чётких генераций)

44
Начать дискуссию