+4Мятное видео.Вы будете смеяться, но у нас новый видео-генератор!Причем не простой! А с ништяками.MinT is the first text-to-video model capable of generating sequential events and controlling their timestamps.Во-первых, это Снап. Там в авторах Сергей Туляков и Александр Сярохин. Хотя я так понимаю, это работа интерна Ziyi Wu.Во-вторых, там интересная фишка, работа со временем, промптовый монтаж. Только не прямыми склейками, а латентными. Видео просто генерится с последнего кадра, сохраняя ВСЮ консистентность предыдущего видео. Это вам не image2video склейки.Проще показать промпт:[0.0s → 2.3s]: A young man typing on the laptop keyboard with both hands.[2.3s → 4.5s]: The man touches the headphones with his right hand.[4.5s → 6.5s]: The man closes the laptop with his left hand.[6.5s → 9.1s]: The man stands up.И все это в одном сеттинге.Выглядит очень нарядно, всегда симпатизировал разработкам Снапа.Обязательно посмотрите примеры тут:https://mint-video.github.io/Там интересно.По поводу сравнения с другими моделями - я так понимаю, что так принято, потому что качество на примерах довольно мыльное.У моделей вообще отношения со временем не очень, а тут попытка приручить время.Также поглядите на интересную работу на тему времени тут.@cgeventПодписывайтесь на Telegram-канал AI Adepts.