Разработчик Stable Diffusion представил ИИ-сервис для создания видео по картинке или тексту Статьи редакции

Можно записаться в лист ожидания на тестирование.

  • Предварительная версия модели Stable Video Diffusion с генеративным искусственным интеллектом доступна на GitHub.
  • Stable Video Diffusion включает две модели: первая по одному изображению размером 576x1024 пикселей может сгенерировать 14 кадров, вторая — 25 кадров. Из них можно сделать видео с частотой кадров от трёх до 30 в секунду.
  • Безопасность и качество нейросетей доработают на основе обратной связи от пользователей. Использовать модели в коммерческих целях пока запрещено — они доступны только для исследований.
  • Можно также записаться в список ожидания для тестирования онлайн-сервиса, который генерирует видео по текстовому описанию.
0
108 комментариев
Написать комментарий...
Евгения Прохорова

придется конкурировать с геном, лабом и мун, а там очень не плохие генерации можно получить, тем более что ген-2 уже анонсировало новую версию и судя по презе там просто реально удивительные вещи вылазят))) если так будет я точно проплачу.

Ответить
Развернуть ветку
Владислав

Это 3 какие-то крутые нейросетки по генерации видео?

Ответить
Развернуть ветку
Евгения Прохорова

пока что самые качевые - Runway Gen-2, Pika Labs, Moonvalley, последние две по моему еще бесплатные

Ответить
Развернуть ветку
Евгения Прохорова
Ответить
Развернуть ветку
105 комментариев
Раскрывать всегда