OpenAI представила ИИ-модель для преобразования текста в видео Sora Статьи редакции
Пока доступ к ней предоставили только некоторым художникам, дизайнерам и режиссёрам.
- Sora позволяет создавать фотореалистичные видеоролики на основе текстовых инструкций продолжительностью до одной минуты, сообщили в OpenAI.
- Нейросеть способна генерировать «сложные сцены с несколькими персонажами, точными деталями объектов и фона». Модель «понимает физику вещей в реальном мире», а также может точно воспроизводить «реквизит и эмоции персонажей».
- Sora также умеет генерировать ролики на основе статичного изображения, создавать недостающие кадры существующего видео или продолжить его. При этом в OpenAI отмечают, что ИИ ещё находится на этапе тестирования и «может испытывать трудности с точным моделированием физики в сложных сценах».
- Модель пока доступна ограниченному числу художников, дизайнеров и режиссёров. Когда компания планирует выпустить публичную версию — неизвестно.
28K
показов
9.9K
открытий
Остров с морем хорош, но это потому что там нет людей и животных, на которых нейросеть так же палиться.
Реалистично так же, как видосы «Гарри Поттер в стиле Баленсиаги»
Ещё пара-тройка лет и уже не отличить от реальности будет
Ну пока что отличимо и/или криповато
Во-первых прогресс все равно дичайший, 5 лет назад ещё ничего нельзя было сгенерировать вообще, такие придирки мелочны
Во-вторых один хрен это будет использоваться только для генережкт спам-кликбейт-рекламы, никаких реальных других применений для text-to-content моделей никто так и не нашел
Абсолютно согласен.
Ну если только не изобретут неизвестный способ как мысли из головы сценариста/режиссера облекать в задание для нейросети, то это для проходных кейсов и будет
Есть же понимание, что мы сейчас про первую презентацию говорим? А комментарии те же, что были, когда представили DALL-E, а теперь «неизвестный способ как мысли из головы сценариста/режиссера облекать в задание для нейросети» работает в игровой и кино-индустрии. То же самое будет и тут. Учитывая, что нейросеть уже давно в съемках используют, все же помнят последнюю забастовку актеров.
А можно примеры как DALL-E работает в кино- и игровой индустрии?
Я его привел в пример, как одну из первых моделей, которую со временем МД перегнала и показала, что такое нейронка на задачах и сейчас используется в индустрии. Примеры миджорни не назову, потому что ее используют большое количество людей, но крупные компании развивают свои модели, чтобы тиражировать иллюстрации, фотоизображения и т.п. Если в приложение Сбера заходили, то на заставках у них бывают сгенерированные иллюстрации. Майгеймс и Плейрикс тренируют свои модели, чтобы делать концепты, видел вакансии Близарда на мл-инженеров с теми же задачами, и то же самое, думаю, есть и в кино.
Кстати, думаю, видели последние результаты МД с руками, над которыми пол года назад еще смеялись и тыкали в косяки.
Как я понял, осязаемых конечных результатов в сфере кино в публичном доступе пока нет, да и игровых тоже.
Допускаю, что это пока могут замалчивать потому что общий консенсус в том, что сгенерировать большого ума не надо. Концепты ок, заставки в Сбере - видел, согласен. Но это не Голливуд.
Ждем прошествия двух-трех лет. Но пока что я буду смеяться и буду с неудовольствием отмечать палевность якобы крутых нейросетевых иллюстраций для дешевых блогов.
А какие вам нужны конечные осязаемые результаты?) Если вы с этим не работаете, не значит, что этого нет. Пока вы смеетесь и с недовольством отмечаете иллюстрации, нейронка уже используется и развивается, все результаты итоговые — результат сгенерированных концептов. Смеется тот, кто смеется последним 🤷🏻♂️
Сгенерировать много ума не надо, сгенерировать правильно и написать модель ум нужен, и за него уже платят.
Игровой пример вам — недавний Palworld. Голивудский пример — недавние забастовки, где прямым текстом говорилось о сканировании и использовании внешности актеров. Посморите последние сезоны каких-нибудь дорогих сериалов, в них есть сцены, где невооруженным взглядом видна сцена сгенерированная нейростетью — окружение, игра массовки или и то и другое в одном кадре.
Разбор нормальный на популярном сайте типа The Verge или Ars Technica.
Пока вы смеетесь и с недовольством отмечаете иллюстрации, нейронка уже используется и развивается, все результаты итоговые — результат сгенерированных концептов.Концепты. А было "нейросеть уже давно в съемках используют". Сейчас начнется какое-то уточнение, что я неправильно понял?
Сгенерировать много ума не надо, сгенерировать правильно и написать модель ум нужен,В целом это похоже на то, что я сказал. Пока что ума ни у кого нет нет предложить промышленно применимый способ описывать будущие видео с предсаазуемым результатом.
Посморите последние сезоны каких-нибудь дорогих сериалов, в них есть сцены, где невооруженным взглядомВероятно, раз этих сезонов много, то есть ссылки на ютубе с разборами спецэффектов? "Ищи сам за меня доказательства моей точки зрения " это не аргумент.
видна сцена сгенерированная нейростетью — окружение, игра массовки или и то и другое в одном кадре.Массовка. Жилковато как-то.
Смеется тот, кто смеется последним 🤷🏻♂️Выглядит так, как будто я наступил на чей-то больной мозоль