OpenAI представила ИИ-модель для преобразования текста в видео Sora Статьи редакции
Пока доступ к ней предоставили только некоторым художникам, дизайнерам и режиссёрам.
- Sora позволяет создавать фотореалистичные видеоролики на основе текстовых инструкций продолжительностью до одной минуты, сообщили в OpenAI.
- Нейросеть способна генерировать «сложные сцены с несколькими персонажами, точными деталями объектов и фона». Модель «понимает физику вещей в реальном мире», а также может точно воспроизводить «реквизит и эмоции персонажей».
- Sora также умеет генерировать ролики на основе статичного изображения, создавать недостающие кадры существующего видео или продолжить его. При этом в OpenAI отмечают, что ИИ ещё находится на этапе тестирования и «может испытывать трудности с точным моделированием физики в сложных сценах».
- Модель пока доступна ограниченному числу художников, дизайнеров и режиссёров. Когда компания планирует выпустить публичную версию — неизвестно.
28K
показов
9.9K
открытий
Остров с морем хорош, но это потому что там нет людей и животных, на которых нейросеть так же палиться.
Реалистично так же, как видосы «Гарри Поттер в стиле Баленсиаги»
Ещё пара-тройка лет и уже не отличить от реальности будет
Ну пока что отличимо и/или криповато
Во-первых прогресс все равно дичайший, 5 лет назад ещё ничего нельзя было сгенерировать вообще, такие придирки мелочны
Во-вторых один хрен это будет использоваться только для генережкт спам-кликбейт-рекламы, никаких реальных других применений для text-to-content моделей никто так и не нашел
Абсолютно согласен.
Ну если только не изобретут неизвестный способ как мысли из головы сценариста/режиссера облекать в задание для нейросети, то это для проходных кейсов и будет
Есть же понимание, что мы сейчас про первую презентацию говорим? А комментарии те же, что были, когда представили DALL-E, а теперь «неизвестный способ как мысли из головы сценариста/режиссера облекать в задание для нейросети» работает в игровой и кино-индустрии. То же самое будет и тут. Учитывая, что нейросеть уже давно в съемках используют, все же помнят последнюю забастовку актеров.
А можно примеры как DALL-E работает в кино- и игровой индустрии?
Я его привел в пример, как одну из первых моделей, которую со временем МД перегнала и показала, что такое нейронка на задачах и сейчас используется в индустрии. Примеры миджорни не назову, потому что ее используют большое количество людей, но крупные компании развивают свои модели, чтобы тиражировать иллюстрации, фотоизображения и т.п. Если в приложение Сбера заходили, то на заставках у них бывают сгенерированные иллюстрации. Майгеймс и Плейрикс тренируют свои модели, чтобы делать концепты, видел вакансии Близарда на мл-инженеров с теми же задачами, и то же самое, думаю, есть и в кино.
Кстати, думаю, видели последние результаты МД с руками, над которыми пол года назад еще смеялись и тыкали в косяки.
Как я понял, осязаемых конечных результатов в сфере кино в публичном доступе пока нет, да и игровых тоже.
Допускаю, что это пока могут замалчивать потому что общий консенсус в том, что сгенерировать большого ума не надо. Концепты ок, заставки в Сбере - видел, согласен. Но это не Голливуд.
Ждем прошествия двух-трех лет. Но пока что я буду смеяться и буду с неудовольствием отмечать палевность якобы крутых нейросетевых иллюстраций для дешевых блогов.
А какие вам нужны конечные осязаемые результаты?) Если вы с этим не работаете, не значит, что этого нет. Пока вы смеетесь и с недовольством отмечаете иллюстрации, нейронка уже используется и развивается, все результаты итоговые — результат сгенерированных концептов. Смеется тот, кто смеется последним 🤷🏻♂️
Сгенерировать много ума не надо, сгенерировать правильно и написать модель ум нужен, и за него уже платят.
Игровой пример вам — недавний Palworld. Голивудский пример — недавние забастовки, где прямым текстом говорилось о сканировании и использовании внешности актеров. Посморите последние сезоны каких-нибудь дорогих сериалов, в них есть сцены, где невооруженным взглядом видна сцена сгенерированная нейростетью — окружение, игра массовки или и то и другое в одном кадре.
Разбор нормальный на популярном сайте типа The Verge или Ars Technica.
Пока вы смеетесь и с недовольством отмечаете иллюстрации, нейронка уже используется и развивается, все результаты итоговые — результат сгенерированных концептов.Концепты. А было "нейросеть уже давно в съемках используют". Сейчас начнется какое-то уточнение, что я неправильно понял?
Сгенерировать много ума не надо, сгенерировать правильно и написать модель ум нужен,В целом это похоже на то, что я сказал. Пока что ума ни у кого нет нет предложить промышленно применимый способ описывать будущие видео с предсаазуемым результатом.
Посморите последние сезоны каких-нибудь дорогих сериалов, в них есть сцены, где невооруженным взглядомВероятно, раз этих сезонов много, то есть ссылки на ютубе с разборами спецэффектов? "Ищи сам за меня доказательства моей точки зрения " это не аргумент.
видна сцена сгенерированная нейростетью — окружение, игра массовки или и то и другое в одном кадре.Массовка. Жилковато как-то.
Смеется тот, кто смеется последним 🤷🏻♂️Выглядит так, как будто я наступил на чей-то больной мозоль
Секретное вторжение?
Заставка
править
Вступительные титры были созданы компанией Method Studiosruen с помощью генеративного искусственного интеллекта, что вызвало резко отрицательную реакцию пользователей Интернета. Некоторые посчитали неудачным стечением обстоятельств выход сериала во время забастовки Гильдии сценаристов США, когда главной проблемой было использование искусственного интеллекта вместо труда живых людей[62]. В ответ на критику Method Studios заявила, что ИИ — «лишь один из множества различных инструментов, использованных нашими художниками» для придания сериалу особенного образа и что ИИ не «заменил» никого из художников. В заявлении также уточнялось, что многие элементы заставки были созданы с помощью традиционных средств и технологий, а ИИ использовался лишь для создания «таинственного и инопланетного образа», который, по мнению съёмочной группы, «идеально совпадает с общей темой
Кароч чтоб прям в промт забили описание, а нейросеть выдала кадр, в котором есть актеры и осмысленная игра - такого нет. Допускаю такое в будущем, не исключаю данного развития.
Т.е. экранизация книг не очень?
Тоже думаю что лет через 5 можно будет создавать небольшие видосики для иллюстрации книг.