В сети опробовали реалистичность модели и сравнили с Sora от OpenAI.Генерация Veo 2. Источник: Jerrod LewGoogle представила модель Veo 2 для создания видео с разрешением до 4K и длиной несколько минут. Она «лучше понимает физику реального мира и нюансы человеческих движений и мимики», утверждают в компании.Теперь модель распознаёт термины из кино и фотографии. В запросе можно указать кинематографический жанр, прописать метод съёмки, например «объектив 18 мм», чтобы получить широкоугольный кадр, или написать «малая глубина резкости» — тогда модель сфокусируется на объекте и сделает более размытый фон.В сети Veo 2 сравнивают с Sora от OpenAI.Генерация Veo 2 по запросу: «Пара рук, умело нарезающих спелый помидор на деревянной разделочной доске». Источник: Joseph CarlsonГенерация Sora по тому же запросу. Источник: Joseph CarlsonПользователи отмечают, что Veo точно следует даже детализированным запросам, в отличие от Sora.Генерация Veo 2 по запросу: «Общий план, камера приближает рыцаря в золотом шлеме, он начинает скакать на зебре, опускает копьё и направляется к осьминогу с часовым механизмом». Источник: Ethan MollickГенерация Veo 2 по запросу: «Пожилой мужчина читает газету в поезде. На последнем листе новость, что цены на картофель растут». Источник: MBZЗаписаться в лист ожидания и попробовать модель можно в VideoFX в Google Labs — недоступно с российских IP-адресов. В 2025 году Veo 2 планируют интегрировать в YouTube Shorts и другие продукты Google.3 декабря 2024 года Google дала ограниченный доступ к Veo разработчикам и компаниям. Например, марка печенья Oreo будет использовать нейросеть для создания рекламных роликов.Google также улучшила модель для создания изображений Imagen 3, теперь можно генерировать больше стилей — от фотореализма до аниме. Она доступна в ImageFX от Google Labs с американских IP-адресов.Генерация Imagen 3. Источник: GoggleКомпания начала тестировать сервис Whisk для генерации изображений по трём референсам: объекта, сцены и стиля. Пока его могут опробовать пользователи в США.Генераторы фотографий и видео впервые представили на презентации в мае 2024 года.#новости #google #ии
За менее чем 2 года огромный прогресс в генерации видео. Вспомните как Уилл Смит ел спагетти и что имеем сейчас
Осталось дождаться, когда вокруг научатся генерировать адекватную реальность. А то мы все немного Уилл Смит поедающий спагетти.
Это уже культовое видео
Прогресс явный
Еще одна новость про нейронку и я больше сюда не захожу...
не заходи
я тематический автор по нейросетям, так что у меня для вас плохие новости(
Не еще одна, судя по примерам она выигрывает у Sora по качеству… а это очень важно)