Adobe выпустила ИИ-модель для генерации видео по тексту и из статичных изображений

Она доступна в программе Premiere Pro.

  • Модель анонсировали в сентябре 2024 года. Воспользоваться ей можно в публичной бета-версии, пишет The Verge.
  • Она умеет преобразовывать в видео изображения и/или текст, может создавать 2D- и 3D-анимации, имитировать «реальную» съёмку и другое. Пользователи могут настраивать угол обзора, движение камеры и соотношение сторон кадра.
Источник здесь и далее: Adobe
  • Максимальная продолжительность видео — четыре секунды. На генерацию уходит полторы минуты, но Adobe обещает добавить «турбо-режим».
  • Среди инструментов, которые есть в программе, — возможность расширить уже отснятый материал. Увеличить видео можно только на две секунды, вносить изменения можно в начале, середине или концовке материала.
  • Издание отмечает, что функция может пригодиться в случаях, когда нужно поправить мелкие недостатки в кадре — например, чтобы сгладить переходы, — и поможет не заниматься пересъёмкой.
  • Можно использовать функцию и для редактирования звука, но с ограничениями: например, инструмент может увеличить продолжительность звукового эффекта, но не сгенерировать новый. Длительность — десять секунд, музыку или диалог продлить не получится.
Генерация звука
Генерация звука
  • Adobe добавила в бета-версию Photoshop функции своего ИИ-сервиса Firefly в мае 2023 года. Осенью представила улучшенную модель Firefly Image 2, а уже в апреле 2024 года выпустила Firefly Image 3. Компания также работает над моделью, которая удаляет и добавляет объекты на видео.
1414
1010
11
56 комментариев

Злые языки шепчут, что шумиха вокруг ИИ сильно опережает реальные способности. И что хайпа больше, чем пользы и угроз. Что это по факту супер-бупер-копьютер с большим вариантом возможных решений. Но «стеклянный потолок» есть и он ограничен тем, что создал человек и что может изучить ИИ.

Наша постоянная рубрика "Массонские инсайды на vc"

17
1

Работаю как раз в той индустрии, где использование всех видов нейросетей максимально возможно. И вот что я скажу: все это бутафория. Имитация производства контента, а не реальная деятельность.

Я регулярно пытался внедрить все инструменты в работу, без прямого участия человека, который реальео является экспертом результат получается такой же фальшивый, как китайские машины.

Вроде текст похож на грамотный текст картинки на настоящими иллюстрации. Голос на живой. Но это только, если твой контакт ограничивается рандомным текстом из головы. Стоит дать нейросети какой-то настоящий рабочий запрос, например переработать на коленке написанный текст в статью - она выдаёт такую чушь, что такое даже в пьяном угаре не напишешь.

И варианта два: либо использовать её результат лишь как каркас, который обвешивать придётся самому, либо скармилвать ей до запроса тонну контекста и условий, чтобы она сделала точно то, что тебе нужно. Но в и в первом и во втором случае нужен опыт и знания настоящего эксперта.

4

А если серьезно, то там еще интересней. Если нейросеть начать учить на данных созданных нейросетью, то модель начнет деградировать с космической скоростью. Таким образом любая выпущенная в интрнет нейросеть быстро превратится в тыкву, потому что сейчас таких данных в сети все больше. https://www.forbes.ru/mneniya/491738-nejrosetevoj-kollaps-pocemu-vskore-mozet-ostanovit-sa-razvitie-algoritmov-ii

2
1

Все будет сложнее если ИИ будет сам себя совершенствовать, через время человек просто перестанет понимать, что там происходит и на этом финита...

Комментарий удалён модератором