🔹 Alibaba представила нейросеть для анимации персонажей по видео
Alibaba представила нейросеть LHM (Large Animatable Human Reconstruction Model), которая способна анимировать персонажей по движениям людей из видеореференса. Она детально сохраняет форму и текстуру одежды, что делает её полезной для создания реалистичных анимаций в играх, фильмах и виртуальных проектах.
Ранее для 3D-реконструкции приходилось сначала создавать статичный образ персонажа, а затем накладывать на него анимацию. Теперь же LHM использует другой подход: она сразу «переносит» движения с видео на изображение, обеспечивая более точное воспроизведение пластики.
Однако у модели есть ограничение — она плохо справляется с резкими сменами поз и ракурсов. Разработчики обещают улучшить этот аспект, обучив нейросеть на более обширном наборе данных.
🎬 Как попробовать?
Бесплатная демоверсия доступна на HuggingFace, где можно создать ролик длиной до 10 секунд. Для более качественных результатов Alibaba рекомендует скачать код с GitHub и запустить модель локально.