Runway представил Act-Two — с помощью неё можно «оживить» изображение персонажа по референсу с видео

Пока функция доступна не всем.

  • Генератор видео представил Act-Two — «модель захвата движения следующего поколения» с поддержкой отслеживания движения головы, лица, тела и рук. С помощью неё пользователи могут анимировать как персонажа, так и фон за ним.
  • Runway выпустила гайд по инструменту. На старте Act-Two доступна для пользователей Enterprise и партнёров — авторов контента. Доступ остальным обещают дать в «ближайшие дни».
Источник: Runway
  • Максимальная длина ролика — 30 секунд. Создание секунды видео обойдётся в пять кредитов, минимум — три секунды.
  • Для создания ролика нужно выбрать модель для генерации видео Gen-4, затем нажать на иконку Act-Two. Понадобится два референса: видео с человеком, который показывает движения, и картинка или видео персонажа.
  • При использовании изображения персонажа в качестве референса Act-Two анимирует окружающую среду на картинке и добавит жесты и движения тела из первого референса. При использовании видео — генерация сохранит объект, фон и движение камеры из этого же ролика.

Примеры пользователей

Источник: @CharaspowerAI
Источник: @STranquillin
Источник: @techguyver
Источник: @DanScalco
Источник: @andyorsow
Источник: @MatthieuGB
13
5
1
27 комментариев