Midjourney открывает новую главу: запуск видео модели V1
Midjourney, известная своими передовыми моделями генерации изображений, сделала следующий шаг в развитии технологий искусственного интеллекта, представив первую версию видео модели (V1). Этот релиз стал важной вехой на пути к созданию систем, способных генерировать 3D-симуляции в реальном времени, о чём компания заявляла как о своей долгосрочной цели. Рассказываем, что умеет новая модель, как она работает и чего ждать в будущем.
Что такое видео модель V1?
Новая функция, названная «Image-to-Video», позволяет анимировать статические изображения, созданные в Midjourney, превращая их в короткие видеоролики. Это не полноценная генерация видео с нуля, а скорее логичное развитие возможностей платформы, где картинки оживают благодаря заданным сценариям движения.
Основные особенности модели:
- Автоматический и ручной режимы анимации. В автоматическом режиме система сама определяет, как оживить сцену, создавая так называемый «motion prompt». Ручной режим даёт больше контроля: пользователь описывает, как должны двигаться объекты или развиваться сцена.
- High Motion и Low Motion. Режим High Motion подходит для динамичных сцен с активным движением камеры и объектов, но иногда может давать ошибки. Low Motion лучше работает для спокойных, атмосферных кадров, где камера почти неподвижна, а движение объектов — медленное или отсутствует.
- Продление видео. Созданный ролик длительностью около 5 секунд можно продлевать до 20 секунд, добавляя по 4 секунды за раз (до четырёх итераций).
- Анимация внешних изображений. Пользователи могут загружать свои картинки, обозначать их как стартовый кадр и задавать сценарий движения.
На старте модель доступна только в веб-версии Midjourney. Для подписчиков уровня «Pro» и выше тестируется режим «relax», который, вероятно, оптимизирует затраты ресурсов.
Стоимость и доступность
Midjourney удалось сделать видео генерацию относительно доступной. Один видеоролик (четыре 5-секундных клипа) обходится примерно в 8 раз дороже, чем генерация одного изображения. Это означает, что 1 секунда видео стоит примерно столько же, сколько создание одной картинки. По словам разработчиков, это в 25 раз дешевле, чем у других решений на рынке.
Однако точные расходы на поддержание инфраструктуры пока сложно прогнозировать. В первый месяц после релиза Midjourney будет наблюдать за нагрузкой на сервера и поведением пользователей, чтобы скорректировать ценообразование и обеспечить устойчивую работу сервиса.
Что дальше?
Видео модель V1 — это лишь один из строительных блоков на пути к амбициозной цели Midjourney: созданию систем, способных генерировать интерактивные 3D-миры в реальном времени. В ближайший год компания планирует развивать отдельные компоненты — визуальные, видео, 3D и реального времени — и постепенно интегрировать их в единую платформу.
Кроме того, уроки, полученные при создании видео модели, уже в ближайшие месяцы повлияют на улучшение имидж-моделей Midjourney. Это может означать повышение качества изображений, новые функции или оптимизацию текущих процессов.
Релиз видео модели V1 демонстрирует, как быстро развивается рынок генеративного ИИ. Midjourney не просто следует трендам, а задаёт их, предлагая инструменты, которые делают передовые технологии доступными для широкой аудитории. Возможность превращать статичные изображения в динамичные сцены открывает новые горизонты для креативных профессионалов, маркетологов, дизайнеров и энтузиастов.
Этот шаг также подтверждает, что будущее ИИ лежит в интеграции разных форматов контента — от изображений до видео и 3D. Midjourney явно стремится стать лидером в этой области, и V1 — лишь начало.
Хотите оставаться в курсе актуальных обновлений и получать полезную информацию об ИИ и технологиях? Присоединяйтесь к нашему телеграм-каналу Нейронные Нарративы, где мы делимся свежими новостями о развитии искусственного интеллекта!