Разработчик Stable Diffusion представил ИИ-сервис для создания видео по картинке или тексту Статьи редакции
Можно записаться в лист ожидания на тестирование.
- Предварительная версия модели Stable Video Diffusion с генеративным искусственным интеллектом доступна на GitHub.
- Stable Video Diffusion включает две модели: первая по одному изображению размером 576x1024 пикселей может сгенерировать 14 кадров, вторая — 25 кадров. Из них можно сделать видео с частотой кадров от трёх до 30 в секунду.
- Безопасность и качество нейросетей доработают на основе обратной связи от пользователей. Использовать модели в коммерческих целях пока запрещено — они доступны только для исследований.
- Можно также записаться в список ожидания для тестирования онлайн-сервиса, который генерирует видео по текстовому описанию.
13K
показов
3.5K
открытий
1
репост
придется конкурировать с геном, лабом и мун, а там очень не плохие генерации можно получить, тем более что ген-2 уже анонсировало новую версию и судя по презе там просто реально удивительные вещи вылазят))) если так будет я точно проплачу.
Это 3 какие-то крутые нейросетки по генерации видео?
пока что самые качевые - Runway Gen-2, Pika Labs, Moonvalley, последние две по моему еще бесплатные