Как получить ультра-реалистичное изображение лица в Midjourney
Используйте следующий промт:
award winning close up detailed bright eyes, 200mm macro lens, in the heart of the historic district of Lisbon, a close-up of a woman, a beautiful mix of Portuguese and irish descent. Her face, proudly displaying acne, blemishes, and the shine of natural oils, is a celebration of genuine beauty. This 21-year-old embodies the unique blend of cultures, her eyes as deep as the Atlantic Ocean, Extreme Facial Detail with Visible Acne, Blemishes, and Natural Oils taken with Canon EOS R3 mirrorless camera, hyper-realistic skin rendering showcasing every pore, hair, acne, blemish, and trace of oil, dynamic evening illumination, natural beauty, realistic features, Vogue Portugal cover photo style, f/11 --uplight --ar 2:3 --q 2 --style raw --v 5.1
На первой палево — зубы, это какой-то странный пластик. На второй — фокус то есть, то нет ну и в расфокусе глаза, такой-то авард виннинг.
Естественно, не идеально, но в фотошопе чуть доработать можно. А с глазами называется астигматизм, так и у реальных людей бывает
Материал зубов можно перерисовать, благо немного.
А вот вторая — брак. Её не выправить.
Проблема нейронок в том, что они выдают неполноценный продукт, с которым потом ещё и не поработать. Если фотограф выдасть RAW в хайрезе, то нейроапскейл будет заметно отличаться от мини-версии. И на больших разрешениях будут весьма странные детали.
Да и куда это лицо вот в таком виде?
Пока что в роли готового продукта, нейрогенерашки можно разве что на дешёвые плакаты/«картины» с водопадами/лесами.
Так же можно намеренно делать картинку с непонятными абстрактными деталями, а в неё вставить единственную реальную (фото) и на ней будет весь фокус. Так сделала Икея, но это на один-два раза реклама покатит и то, экспериментально.
Можно рандомайзить подмалёвки для окружения или вид персонажей.
Нельзя даже налепить 150 иконок лиц персонажей в игру: генерирует реалистичные лица нейронка уже неплохо, но все их в одном стиле — не вывозит, а 150 на одном полотне разом прогнать через стилизатор — памяти не хватит.
В Stable Diffusion проблема решается подключением готовых LORA или тренировкой собственных. При чем и на персонажа и на стиль можно натренировать. А еще если освоить Control Net, то одинакового персонажа в одинаковом стиле можно заставить стоять в нужных позах. Работает не на 100% идеально и зачастую требует доведения отдельных частей иллюстрации в ФШ, но освоить технику inpaint. Это гораздо сложнее чем накалякать промпт в MJ и уже какая-никакая профессиональная деятельность дающая результат по ТЗ заказчика, а не рандомную, хоть и красивую, картинку для рекламной копирайтерской статьи. А "нейрохуйдожники" в MJ зачастую просто не способны установить SD поскольку "там надо эти ваши git+phyton устанавливать и вообще видеокарта с CUDA нужна, а у меня макбук, мне надо чтобы все работало нажатием одной кнопки".
SD сложнее, чем MJ?