{"id":14276,"url":"\/distributions\/14276\/click?bit=1&hash=721b78297d313f451e61a17537482715c74771bae8c8ce438ed30c5ac3bb4196","title":"\u0418\u043d\u0432\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u043b\u044e\u0431\u043e\u0439 \u0442\u043e\u0432\u0430\u0440 \u0438\u043b\u0438 \u0443\u0441\u043b\u0443\u0433\u0443 \u0431\u0435\u0437 \u0431\u0438\u0440\u0436\u0438","buttonText":"","imageUuid":""}

Честный обзор генератора изображений DALL-E 3 в ChatGPT. Сравнение с Midjourney

Предыстория

В октябре OpenAI представила Dall-E 3 в интерфейсе ChatGPT Plus и Enterprise и заверила, что новый Dall-E 3:

✔ учитывает каждое слово в промпте;

✔ на изображениях корректно выводится текст, кроме русского.

✔ улучшена проработка сцены и взаимосвязь между объектами на изображении, отрисовка рук и других частей тела.

Генерировать изображения можно в самом диалоге с чат-ботом, что дает бесшовно переключаться между делами с текстом и изображениями, не покидая ChatGPT.

Интеграция ChatGPT  и Dall-E 3

На видео пример такого взаимодействия между Dall-E 3 и ChatGPT - сказка про Лари, солнечного ежика, с иллюстрациями и прочим.

Я протестила Dall-E 3 и сравнила его с Midjourney

По исполнению реалистичных фото мне понравился больше Midjourney; в DALL-E 3 “все равно фото как компьютерные” - извините за каламбур 🤭

https://t.me/NeuralProfit/366

Но зато в DALL-E 3, интегрированным в ChatGPT, можно прям в диалоге попросить дописать, например, на банке крема “Natural” - он напишет:

https://t.me/NeuralProfit/366

С русским языком пока проблемы, мое “привет” он написал, видимо, на своем языке) Ну Midjourney написала явно не лучше:

https://t.me/NeuralProfit/366

DALL-E 3 лучше отрисовывает руки, это однозначно! Так что если у вас студия маникюра, без напряга можно сгенерировать маникюр на пяти пальцах с первого раза 💅

Промпты DALL-E 3 тоже понимает лучше: для примера сгенерила изображения по одному промпту:

Эфирная элегантность, изящный нейл-артистизм с бутылочками и украшениями из лака для ногтей, мягкие, приглушенные оттенки для легкой и нежной атмосферы, - без анатомической деформации рук” - Midjourney конечно обрисовала с присущей ей художественностью, только вот про руки забыла, зато DALL-E 3 точно передал детали промпта:

https://t.me/NeuralProfit/366

Авторское право в DALL-E 3: пользователям запрещено генерировать изображение, если в описании указан ныне живущий художник или фотограф с целью защиты авторских прав. Однако, DALL-E 3 по-хитрому предлагает передать суть стиля художника, используя описательные термины и художественные направления:

Правда по достоверности передачи стиля художника мне ближе Midjourney.

Для примера, попросила DALL-E 3 и Midjourney сгенерировать изображения в стиле David Bailey по промпту:

1965 melodrama, New York in the style of David Bailey --ar 4:5 --s 350 --style raw

Вот оригинальные работы David Bailey

https://t.me/NeuralProfit/366

Вот как увидели стиль David Bailey Midjourney и DALL-E 3:

https://t.me/NeuralProfit/366

Все-таки лучше передал стиль фотографа Midjuorney, изображения DALL-E 3 мало похожи на модельные фото, скорее на иллюстрации, и не передают почерк David Bailey, но это мое мнение

Вывод

Пока мне все же больше нравится Midjourney по исполнению и настройкам, не смотря на неоспоримые преимущества DALL-E 3. Я думаю, скоро мы с вами станем свидетелем гонки вооружений: Midjorney выкатит обновление, устранит баги с руками, улучшит понимание промпта, а DALL-E 3 улучшит исполнение и выпустит новые фишки, интересно будет понаблюдать) А пока, если Вы хотите быстро и качественно научиться генерировать в лучшей нейросети для генерации изображений, то для Вас мой курс - быстрый старт в Midjourney для бизнеса

Хотите узнавать первыми о полезных сервисах с искусственным интеллектом для работы, учебы и облегчения жизни? Подпишитесь на мой тг НейроProfit, там я рассказываю, как использовать нейросети для бизнеса 😉

0
Комментарии
-3 комментариев
Раскрывать всегда