Весь прогресс генерации видео нейронками в одном кадре
Возможность генерации видео по запросу появилась относительно недавно. Но уже за год качество видео — а значит, его правдоподобность, привлекательность — невероятно выросла.
** Еще больше интересного в моем канале продуктовые штучки**
Судите сами:
Видео сверху — создано в апреле 2023 года, а внизу - в июле 2024. В обоих случаях использовались одни и те же инструменты: сценарий от ChatGPT, иллюстрации и анимации — Midjourney и Runway, закадровый голос сгенерирован Eleven Labs.
В итоге фейковые видео не отличаются по качеству от реальных. Сначала в Flux было сгенерировано реалистичное изображение, а затем его анимировали в Runway Gen-3 Alpha.
В итоге бренды, как и мы с вами, уже сейчас могут создавать рекламные ролики практически не вставая с места.
Вот свежий пример:
Ролик полностью сделан ИИ, затем в ролике лишь добавили номерные знаки и нарисовали логотип. Весь процесс занял меньше суток. Другой ролик, созданный нейросетью Sora от OpenAI, был недавно презентован на «Каннских львах».
Что дальше?
Следующий этап — соревнование за скорость генерации, длину роликов и количество затраченных на это ресурсов.
В этом соревнуются модели, которые были выпущены совсем недавно, в мае - июне. Например, один из участников гонки Runway, хвастается, что генерит видео за 30 сек, в то время как конкуренты могут это делать за минуту, а то и все две.
Главная битва между создателями сейчас разгорается за удешевление моделей (цены на токены для LLM). А значит, за снижение стоимость генерации контента для пользователей.
Так, OpenAI снизила цены за миллион токенов на GPT-4 с $36 при запуске в марте 2023 до $4 сейчас. В немалой мере этому способствует конкуренция и инновации.
К чему это приведет?
Как и в случае соцсетей и смартфонов, это приведет к тому, что все больше людей будут создавать свое кино. И тут нам в помощь Disney, который выпустил анимированный гайд по созданию фильмов.
Пожалуйста, поддержите меня, поставьте лайк!
Приступая к тестированию новейших ИИ-генераторов видео, я хотел ответить на простой вопрос: насколько хорошо они могут оживить статичное изображение?
Мы уже видели модели генерации видео, и не одну. А вот модель для редактирования оригнального видео — это что-то новенькое. Расскажу подробнее об инструменте.
Вчера DeepMind анонсировала Veo 2, ИИ видеогенератор следующего поколения и преемник Veo. Расскажу о возможностях, ограничениях и первых впечатлениях счастливцев от модели.
Расскажу о любопытном случае, который а) доказывает пользу ИИ в науке б) показывает, что ИИ - это не поисковик, а именно интеллект, способный тягаться с учеными.
Забавная история приключилась с новогодней рекламой Сoca-Cola
Видео сверху — создано в апреле 2023 года, а внизу - в июле 2024Любоваться качеством — хорошее занятие для создателя видео. Качественный результат за меньшие ресурсы — оргазм для заказчика.
И только потребителю на эти видео глубоко фиолетово — и чем дальше, тем больше. Мозг активно вырабатывает иммунитет к рекламе. Только 6 пальцев и руки из колен ещё могут привлечь внимание (пока).
В итоге фейковые видео не отличаются по качеству от реальных.А вот это реально напрягает. Кроме юридических нюансов есть ещё развивающееся недоверие к контенту.
Не заморачивайтесь так
прикольно конечно, но все еще выглядит слишком странно