Nvidia показала нейросеть для создания реалистичных изображений по наброскам Статьи редакции
Paint эпохи искусственного интеллекта.
На конференции GTC 2019 в Калифорнии Nvidia представила демоверсию нейросети GauGAN, с помощью которой можно создавать реалистичные изображения из схематичных рисунков.
Модель GauGAN, названная в честь художника Поля Гогена, способна мгновенно превратить пару нарисованных мышкой линий в «великолепный» пейзаж, описывает TechCrunch. Издание называет его MS Paint эпохи искусственного интеллекта.
GauGAN использует для обработки генеративно-состязательные нейросети (GAN): генератор создаёт изображение и передаёт его обученному на реальных фотографиях дискриминатору, который подсказывает генератору, как доработать изображение и что исправить. Для обучения Nvidia использовала 1 млн фотографий, полученных от Flickr.
При создании изображения GauGAN генерирует реалистичные детали, такие как отражение объектов в прудах, реках и на других водных поверхностях. Инструмент позволяет менять время суток и года: для этого достаточно переключиться с режима «трава» на «снег», и система автоматически поменяет окружение на картинке, например, уберёт листву с деревьев.
Пока GauGAN умеет работать только с пейзажами и элементами природы, но нейросеть можно обучить для создания и обработки изображений со зданиями, дорогами, людьми и другими объектами. GauGAN может стать инструментом, который поможет архитекторам, градостроителям, ландшафтным дизайнерам и разработчикам игр упростить создание прототипов и ускорить их редактирование, считают в Nvidia.
Компании ещё нужно немного доработать модель, отметил Катанзаро. В скором времени GauGAN должна стать доступна на площадке для демонстрации возможностей нейросетей AI Playground, которую Nvidia также представила на GTC 2019.
Ну что, господа дизайнеры, кто уже занял место в очереди на завод? :trollface:
Комментарий недоступен
Это больше не к дизайнерам, а к продакшн-художникам которые в кино/играх работают, вот там уже скоро можно будет арт-департмен сокращать до 1 человека.
А продакшн художники типа одни пейзажи рисуют? Теперь просто для фотобаша, вместо фоток с шаттерстока, будут генерировать их.
Сейчас они (программы) рисуют горы, завтра будут персонажей. Потом улучшат рендер и добавят кучу фич вроде: авто-подбор композиции/ракурса/освещения/цвета/позы и т.д. Короче, хана всем 2D-артистам. В будущем заменят и 3D-шников.
Вкусу то никто нейросеть не научит. Она тебе рандомно создаст персонажа, но будет ли его дизайн хорошим? Мне кажется, это будет просто инструмент, который позволит ускорить/облегчить работу, работать в качестве источника вдохновения, можно будет брать какие-то элементы, но финальный вариант все равно придется ручками делать.
Мне кажется, это скорее будет больше использовать над "массивами данных", так сказать. Например когда нужно сделать массовку для крупной сцены в фильме или для толпы людей в игре. Там уже сейчас спользуется генерация, но нейросети позволят создать еще больше уникальности. Ну или там для генерации городов или космических станций.
Но всякие центральные вещи, типа дизайна главного героя, его одежды, обстановки квартиры, и тд, везде, где нужен осмысленый дизайн, который рассказывает историю, все равно будут делать вручную.
Со временем и "вкусу" научат. Сейчас речь идет не о том, чтобы заменить человека полностью, а сократить кол-во людей в продакшене. Чем "умнее" софт, тем меньше прикладных скиллов требуется от человека. Если три человека смогут выдавать результат, как у команды из десяти человек, тогда последних можно уволить. Содержать большой штат людей, не будет никакого смысла. Т.е художникам просто будет сложнее найти работу, которой и так не особо много.
В перспективном будущем режиссеры смогут в одиночку снимать свои фильмы без 2000 людей за спиной. Вопрос только куда все эти тысячи людей пойдут работать.
Несите пергамент, у нас тут провидец!