Midjourney открывает новую главу: запуск видео модели V1

Midjourney, известная своими передовыми моделями генерации изображений, сделала следующий шаг в развитии технологий искусственного интеллекта, представив первую версию видео модели (V1). Этот релиз стал важной вехой на пути к созданию систем, способных генерировать 3D-симуляции в реальном времени, о чём компания заявляла как о своей долгосрочной цели. Рассказываем, что умеет новая модель, как она работает и чего ждать в будущем.

Что такое видео модель V1?

Новая функция, названная «Image-to-Video», позволяет анимировать статические изображения, созданные в Midjourney, превращая их в короткие видеоролики. Это не полноценная генерация видео с нуля, а скорее логичное развитие возможностей платформы, где картинки оживают благодаря заданным сценариям движения.

Основные особенности модели:

  • Автоматический и ручной режимы анимации. В автоматическом режиме система сама определяет, как оживить сцену, создавая так называемый «motion prompt». Ручной режим даёт больше контроля: пользователь описывает, как должны двигаться объекты или развиваться сцена.
  • High Motion и Low Motion. Режим High Motion подходит для динамичных сцен с активным движением камеры и объектов, но иногда может давать ошибки. Low Motion лучше работает для спокойных, атмосферных кадров, где камера почти неподвижна, а движение объектов — медленное или отсутствует.
  • Продление видео. Созданный ролик длительностью около 5 секунд можно продлевать до 20 секунд, добавляя по 4 секунды за раз (до четырёх итераций).
  • Анимация внешних изображений. Пользователи могут загружать свои картинки, обозначать их как стартовый кадр и задавать сценарий движения.

На старте модель доступна только в веб-версии Midjourney. Для подписчиков уровня «Pro» и выше тестируется режим «relax», который, вероятно, оптимизирует затраты ресурсов.

Стоимость и доступность

Midjourney удалось сделать видео генерацию относительно доступной. Один видеоролик (четыре 5-секундных клипа) обходится примерно в 8 раз дороже, чем генерация одного изображения. Это означает, что 1 секунда видео стоит примерно столько же, сколько создание одной картинки. По словам разработчиков, это в 25 раз дешевле, чем у других решений на рынке.

Однако точные расходы на поддержание инфраструктуры пока сложно прогнозировать. В первый месяц после релиза Midjourney будет наблюдать за нагрузкой на сервера и поведением пользователей, чтобы скорректировать ценообразование и обеспечить устойчивую работу сервиса.

Что дальше?

Видео модель V1 — это лишь один из строительных блоков на пути к амбициозной цели Midjourney: созданию систем, способных генерировать интерактивные 3D-миры в реальном времени. В ближайший год компания планирует развивать отдельные компоненты — визуальные, видео, 3D и реального времени — и постепенно интегрировать их в единую платформу.

Кроме того, уроки, полученные при создании видео модели, уже в ближайшие месяцы повлияют на улучшение имидж-моделей Midjourney. Это может означать повышение качества изображений, новые функции или оптимизацию текущих процессов.

Релиз видео модели V1 демонстрирует, как быстро развивается рынок генеративного ИИ. Midjourney не просто следует трендам, а задаёт их, предлагая инструменты, которые делают передовые технологии доступными для широкой аудитории. Возможность превращать статичные изображения в динамичные сцены открывает новые горизонты для креативных профессионалов, маркетологов, дизайнеров и энтузиастов.

Этот шаг также подтверждает, что будущее ИИ лежит в интеграции разных форматов контента — от изображений до видео и 3D. Midjourney явно стремится стать лидером в этой области, и V1 — лишь начало.

Хотите оставаться в курсе актуальных обновлений и получать полезную информацию об ИИ и технологиях? Присоединяйтесь к нашему телеграм-каналу Нейронные Нарративы, где мы делимся свежими новостями о развитии искусственного интеллекта!

1
2 комментария