{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Новый ИИ-инструмент Adobe VideoGigaGAN может превратить размытое видео в видео с высоким разрешением

Знаете, меня всегда радует, когда какая-нибудь крупная технологическая компания анонсирует совершенно новый ИИ-инструмент. У меня есть склонность предвкушать что-то интересное или потрясающее, с чем можно поиграть или даже создать на его основе продукт.

Adobe представила предварительную исследовательскую версию VideoGigaGAN, которая может превратить размытое видео в высокодетализированное изображение с суперразрешением.

Еще больше полезностей - в моем телеграм-канале про нейросети и канале про генерацию изображений Миджорниум.

Что такое VideoGigaGAN?

VideoGigaGAN - это новая генеративная модель для получения видео с суперразрешением (VSR), которая предназначена для повышения разрешения видео с низким разрешением до высокого, сохраняя при этом высокочастотные детали и временную последовательность кадров.

Посмотрите примеры «до» и «после» ниже:

До
После

В приведенном выше примере видео разрешение было увеличено с 512x512 до 1028x1028. Помимо четырехкратного увеличения, конечное видео получило улучшенную детализацию. Результаты действительно впечатляют, демонстрируя возможности ИИ в улучшении качества видео.

Только взгляните на текстуры кожи и тонкие детали бровей. Это просто поразительно.

Как он работает

VideoGigaGAN расширяет асимметричную U-Net архитектуру апсемплера GigaGAN на основе изображений для работы с видеоданными. Модель включает в себя несколько ключевых компонентов, обеспечивающих временную согласованность видеокадров.

Во-первых, апсемплер изображения превращается в апсемплер видео путем интеграции слоев временного внимания в блоки декодера. Это позволяет модели эффективно захватывать и распространять временную информацию.

Во-вторых, для дальнейшего улучшения временной согласованности вводится модуль распространения, управляемый потоком. Этот модуль предоставляет временные характеристики в раздутый GigaGAN, используя оценку оптического потока и рекуррентную нейронную сеть для выравнивания и распространения характеристик по кадрам.

В-третьих, для уменьшения артефактов алиасинга, возникающих в результате операций понижающей дискретизации в кодере, вместо стандартных слоев понижающей дискретизации используются блоки сглаживания. Эти блоки применяют фильтр низких частот с последующей субдискретизацией, что позволяет подавить алиасинг и уменьшить временное мерцание в выходном видео.

Наконец, чтобы компенсировать потерю высокочастотных деталей, вызванную операцией сглаживания, используется высокочастотный челнок. Этот механизм напрямую передает высокочастотные характеристики от кодера к декодеру через пропускные соединения, минуя процесс BlurPool в блоках сглаживания. Благодаря этому в выходном видео сохраняются четкие детали и текстуры, а также улучшается временная согласованность.

Если вы хотите узнать больше о том, как это работает, ознакомьтесь с техническим описанием здесь.

Ограничения

Вот основные ограничения VideoGigaGAN:

  1. Обработка очень длинных видео: VideoGigaGAN может столкнуться с трудностями при обработке видео с очень большим количеством кадров, например, превышающим 200 кадров.
  2. Низкая производительность при работе с мелкими объектами: VideoGigaGAN с трудом справляется с эффективным суперразрешением мелких объектов в видеокадрах, особенно тех, которые содержат сложные детали, например текст или мелкие узоры.
  3. Большой размер модели: По сравнению с предыдущими подходами VSR, VideoGigaGAN имеет заметно больший размер модели из-за включения дополнительных компонентов, таких как модуль распространения с управлением потоком и расширенная архитектура U-Net.
  4. Зависимость от точности оптического потока: Эффективность модуля распространения по потоку VideoGigaGAN в значительной степени зависит от точности оценки оптического потока между видеокадрами. В случаях, когда оценка оптического потока неточна, например, при наличии больших движений, окклюзий или сложной динамики сцены, способность модели поддерживать временную согласованность может быть нарушена, что может привести к артефактам или несоответствиям в выходных данных с суперразрешением.

Другие примеры

Вот еще примеры видео 128x128, увеличенного до 512x512.

Начиная с пиксельных кадров низкого разрешения и заканчивая четкими видео высокой четкости, очень интересно наблюдать, как модель ИИ может делать выводы и генерировать недостающие детали.

Похоже, что видео теперь получает больше любви со стороны технологических компаний. В прошлые годы создание видео или работа с ним с помощью ИИ не привлекали к себе такого внимания и не вызывали умопомрачительного прогресса.

Вскоре эти генераторы видео или инструменты редактирования на базе ИИ станут достаточно эффективными, чтобы работать на ваших смартфонах. Камеры больше не должны будут иметь аппаратное обеспечение со сверхвысоким разрешением, чтобы снимать высококачественное видео.

Если говорить об ИИ в видео, то сегодня ситуация меняется, и мы видим все больше и больше ИИ в сфере видео. Возьмем, к примеру, Sora от OpenAI - она наделала много шума, когда была выпущена. Другой пример - недавно анонсированный VASA-1 от Microsoft, который может превращать одно изображение в говорящее или поющее видео в режиме реального времени.

Появление ИИ в сфере видео - это захватывающее событие, которое обещает изменить способы создания, редактирования и потребления видеоконтента.

Еще больше полезностей - в моем телеграм-канале про нейросети и канале про генерацию изображений Миджорниум.

Оригинал статьи на английском - здесь.

0
2 комментария
Александр Сакович

А ей пользоваться пока нельзя?

Ответить
Развернуть ветку
Neuromarket (Алексей)
Автор

Пока нет.

Ответить
Развернуть ветку
-1 комментариев
Раскрывать всегда