Разработчики Google показали примеры применения технологии NeRF — она превращает фотографии в объёмные изображения Статьи редакции
Они создали 3D-объекты, используя фотографии с Flickr.
Разработчики подразделений Google Brain и Google Research рассказали о применении метода neural radiance fields (NeRF) для создания объёмных сцен из коллекции фотографий с использованием технологии машинного обучения.
NeRF позволяет создавать объёмные модели объектов, расположенных внутри сцены, а также передавать их цвет и плотность с учётом точки обзора.
Разработчикам удалось воссоздать образы Бранденбургских ворот в Берлине, базилику Сакре-Кёр в Париже и фонтан Треви в Риме, используя фотографии с сайтов типа Flickr, пишет Vice.
Однако NeRF может показывать хорошие результаты только с определёнными настройками: фотографии должны быть сделаны в течение короткого времени, когда свет одинаковый, а предметы не двигаются, отмечают разработчики.
Древние забытые технологии предков...
вау, ждите объемную эротику на ваших экранах )
этой технологии уже лет сто)
Технология наподобие фотограметрии , давно уже используется в аэрофотосъёмке в геодезии и картографировании.
Иногда что то знаешь и хочется притянуть за уши к увиденному... Если вы обучались этому, а не просто слышали, то помнили самую основную формулу фотограмметрии 1/m = f/H. И перекрытия снимков должны быть 60-70%. И только тогда можно получить стереоскопический эффект. Здесь разве так же?)
А разрабы указали сколько они использовали фоток ?
Смотрите, в той формуле которую я привел, написано что масштаб снимка зависит от высоты фотографирования и фокусного расстояния камеры. Т.е. если мы будем использовать снимки разных масштабов, то никакого стереоэффекта не будет. Опять же полученный эффект мы можем наблюдать только с одной точки - напротив.В видео совсем не так. Но конечно если идти от частного к общему, то как я откомментил ниже, этой технологии больше ста лет и нас снова наебали, расходимся.
Такое Microsoft делал довольно давно, лет 5-7 назад, правда, у них не было нейросети, и объект был составлен из кучи фоток
круто круто
освещение менять вообще балдеж
Хороший пример того что могут алгоритмы с помощью ML. Потом не удивляйтесь почему Тесла отказалась от лидаров. Нафига они нужны если можно алгоритмами получить 3D картинку.
Но потом не удивляйтесь, если в «тени между кадров» находился ещё 1 объект...)))
Хочу Гугл.Парнорамы в таком качестве!
У меня аж встал
Да, предоставили не много информации, и всего 3 локации. Алгоритм то может сам проработать, и поставить правильную топографию, но без постобработки не обошлось. А вообще лазерный 3D скан и в путь.
Комментарий недоступен
Ну, все здорово, только нет простого инструмента чтобы создавать такие фотовидео. Нужно что-то типа как photo merge в Photoshop для панорам.