Немножко про генеративную графику

На данный момент есть +- 3 шт вменяемые сетки (да есть и от гугел, но пока по факту ее нельзя заюзать) .

1 Midjourney —

2 Stabble diffusion

3 dall — e2

Миджорней и стабл умеют работать с исходным изображением, тоесть им можно закинуть свое и менять его. Dall e тоже, но получить инват, практически анрил.

Оч хороший гайд по миджорней.

Полный гайд по миджорней тут

Но многие «операторы» уже не актуальны, и нужно почитать оригинальный гайд.

Теперь посмотрим инструменты которые помогут нам работать.

Словарь для миджорней

Еще один помощник в запросах

Еще один keywords reference для миджорней

keywords reference для миджорней

Keyword для stable diffusion

Гайд как использовать свою пикчу в миджорней.

Бесплатный инструмент для восстановления лиц

Инструмент для смены освещения

Генерация описания по изображению

1

2

Увеличиваем изображение с помощью нейросети (апскейлим) Topaz Gigapixel AI

В текстовом запросе для любой сетки, можно указать цветовую схему, освещение, оптические параметры объектива, камеры, размытия, фокусного расстояния и тд и тп.

Можно указать в каком стиле сделать изображение, сослаться на имя художника, на имя просто иллюстратора и тд, хоть на инсту, указать можно чем на рисовать, даже можно имитировать вид рендера (октан и тд) , или например софт (zbrush) .

Лучше всего заходим на keyword, например lexica, ищем нужное +- по стилю изображение, нажимаем и смотрим его описнание, то есть, что написали в запросе для получения этого изображения (для stable diffusion так же смотрим и на «Seed» он есть в описании).

Меняя параметры запроса в stable diffusion, (такие как размер картинки и количество шагов) , меняется количество кредитов.

Хороший алгоритм для работы с stable diffusion:

Ширина и высота 512Конфигурация — Cfg Scale — до 10

Количество шагов — Steps — не более 20 (смысл поднимать только на финальной обработке).

Колличество изображений Number of Images — 1

Sampler k_euler — Быстр, что-то интересное выдает уже на 8-16 шагах, но с каждым шагом изображение может кардинально поменяться. Для начала работы, самое то.

Далее работаем, если +- на экране то что хотели (движемся от общего к частному), увеличиваем количество изображений Number of Images — до 9, это позволит быстро перебрать варианты.

Если вариант найден, нажимаем на него (внимание, если вы выбрали изображение, то автоматически фиксируется seed, это значит, что бы вы не писали и не меняли, дифюжн теперь работает только в рамках этого изображения и меняя «Cfg Scale» вы меняете на сколько сильно описание меняет выбранное изображение).

Когда определились с вариантом, то меняем Sampler на k_dpm. он медленный на каждом шаге, нужно больше шагов для генерации приличного качества (50-80), но результат дает чуть более детализированный, по сравнению с тем же k_euler_a. Шаги меняем на 75 +-
Если у midjourney есть "операторы" которые помогут повлиять на результат, то у stable diffuson их нет, и расположение слов (их очередность) влияет на их вес. То есть, что в начале, то и имеет больший вес для генерации.

Парочка примеров описания и полученного изображения:
"portrait of a demonic cybernetic Duke Overlord of hell, cyberpunk, intricate, sharp focus, heavy armor, knights armor, standing by a throne. thick robes, shinning crown, dark fantasy, great composition, global illumination ray tracing fanart arstation zbrush central hardmesh 8 k octane renderer comics stylized, by jesper ejsing, by rhads, makoto shinkai and lois van baarle, ilya kuvshinov, rossdraws totem color pastel vibrant radiating aura"

Добавим в конце описания "black and yellow poster" и как не странно, ничего не изменится.

Немножко про генеративную графику
Немножко про генеративную графику
Немножко про генеративную графику

Но вот если мы поставим эту фразу в начале, то результат кардинально иной:

Немножко про генеративную графику
Немножко про генеративную графику
Немножко про генеративную графику
Немножко про генеративную графику

Если мы удалим упоминание про желто черные постеры и добавим ссылку на работы "by_pete_mohrbacher_and_wlop_and_artgerm_and_josan_gonzales", то получим результат в соответствующей стилистике.

Немножко про генеративную графику

На данный момент, stabble diffusion лучше использовать на ПК, в таком случае возможностей будет разительно больше. Например можно убрать ограничение в nswf.
Сейчас так же много разговоров про интеграцию stable diffusion и графических редакторов, но ничего нового (что отличалось бы от просто установки stable siffusion на пк), нет.
Прикольный видос по интеграции SD с фигмой, но пока это просто видос ))), без реального инструмента.

Gonna ship a Figma plugin to go from prompts + simple shapes to design ideas using #stablediffusion #aiart

Aplaca - новый плагин для Photoshop, который комбинирует возможности нейросети (Stable Diffusion) со скиллами человека и на выходе получаем вот такие вот арты. Выглядит просто имба, но вот получить доступ, так и не вышло.

Тут описано далеко не все и не про все )Если есть что добавить, буду рад получить от вас ссылки и описание.

ЗЫ. Все выше написанное, писалось в первую очередь для друзей

33
5 комментариев

Это мой друг!!

1
Ответить

Велком ту пати бро
)

1
Ответить

/кратко/грубо/ кто-то писал что SD гавно, а dale2 гуд. Сравнивали?

1
Ответить

Тяжело это сравнивать, зная определенный алгоритм, SD можно юзать бесконечно, а у dall e, инвайт получить сначал анрил, а потом и очень маленькое ограничение на фри изображения. Тут для каждого свое, для меня SD по всем параметрам лучшее решение, да и + возможность установки на пк решает.
А отрытый исходник и вовсе имба.

1
Ответить

Спасибо

1
Ответить