Я создал видеоролик, используя Midjourney и Runway Gen-3 и разместил его на YouTube: вот чему я научился и как я его делал
Для персонажей второго плана есть еще один прием: создайте основной портрет персонажа и используйте редактор Midjourney для изменения окружения. Это вносит достаточное разнообразие в сцену и делает персонажей достаточно разными после анимации.
Примечание: Одним из ограничений, с которым я столкнулся при создании этого sref, была невозможность изменить одежду персонажа на футуристическую. Позже я понял, что смешение этого sref с другим, содержащим футуристические элементы, могло бы решить эту проблему.
После оживления они будут достаточно разными.
Примечание: Здесь я обнаружил ограничение на этот Midjourney sref. Сколько бы я ни менял промпт, я не мог заставить MJ одеть ее в футуристическую одежду. (Когда я писал это, мне пришло в голову, что я мог бы объединить этот sref с другим с футуристическими элементами. Ну и ладно, скорее всего, с Flux будет легче.
Голоса и звуки
Существует несколько вариантов добавления голоса и звука персонажам:
- ElevenLabs: Генерация голосов с помощью технологии Text to Voice.
- Runway и Hedra Labs: Функции синхронизации губ позволяют добавлять голоса к изображениям.
- Capcut: Предлагает генерацию голосов, но не имеет функции синхронизации с губами.
Кроме того, звуковые эффекты улучшают качество видео. И ElevenLabs, и Capcut предоставляют возможность генерировать или добавлять их.
Какой вариант вам больше нравится?
Это окончательный результат. Я буду рад узнать ваши мнения.
🔥Телеграм-бот SYNTX предоставляет доступ к более чем 30 ИИ-инструментам. Без ВПН, оплата любой картой, запросы на любом языке, пробуйте бесплатно! Под капотом - GPT4o/Gemini/Claude, MidJourney, DALL-E 3 и Ideogram, LUMA, Runway, Kling, Suno, Редактор с 12 различными ИИ-инструментами для ретуши фото.
☝Это только часть функций, доступных в SYNTX!
🔥 При покупке подписки Elite, - анлим на генерации в Runway!
Источник статьи на английском - здесь.
Комментарий удалён модератором
Да, на таких видео можно натренироваться делать даже мини-фильмы
Один из последних клипов Limp Bizkit был сделан таким образом.
Хайпа много с этими нейронками, а по факту вроде бы видео операторы никуда пока не пропали, как и мультипликаторы.
А куда они пропадут? Просто специалисты, умеющие пользоваться нейросетями, будут все делать быстрее конкурентов, которые не умеют
Результат пока выглядит как типичный контент, сгенерированный ИИ - ни больше ни меньше. Эталонные ии-шные ракурсы, условные движения героев, ощущение "анимированных" картинок а не кино-кадров, и нулевая динамика как следствие. Близко не тянет даже на средней руки трейлер.
Это да, но здесь не было задачи сделать реалистичное видео