Тут мы пришли к первому и, кажется, простому (с оговорками) ИИ-решению. Для него мы использовали по одному кадру из каждой крупности из уже смонтированного и обработанного видео. Этот кадр мы загружали в Adobe Photoshop и с помощью Adobe Firefly генерировали дополнительное пространство кадра, увеличивая пространство вокруг спикера. Потом полученное изображение возвращалось в монтажную программу, где с помощью масок мы совмещали границы кадра, получая бесшовное изображение и расширенный общий план без потери качества. Нюанс был в том, что в то время Adobe Firefly плохо отрабатывал градиентные цвета, поэтому пришлось дорабатывать вручную. Как говорится, «На нейронку надейся, а сам не плошай».
"На наш взгляд, искусственный интеллект никогда не отберёт работу у креаторов. Это лишь инструмент, который дополняет навыки человека."
Не отберет? Китайский ИИ МиниМах уже отбирает. Вот здесь нет ни одного реального кадра. Всё это генерация. Причём, бесплатная: https://rutube.ru/video/59ec43a060245b134f40c4acb2d460e4/?r=plwd
Отличная статья! Гриша 👏
вам повезло, что за это вам платят деньги