Deepdub занимается озвучкой фильмов и сериалов — специалисты записывают 2-4 минутные реплики живых актёров и на их основе создают ИИ-модель, которая переводит речь на нужный язык — это сокращает процесс озвучки с 15-20 недель до четырёх недель. Сколько языков доступно, компания не раскрывает.
Комментарий недоступен
Интересно с технической и художественной точки зрения, насколько органично сможет выглядеть переозвучка роли на другом языке, сохранившая характерные особенности локального акцента оригинала.
Условно говоря, вместо стандартного общерусского акцента актеров дубляжа это позволит реконструировать какой-нибудь лёгкий русско-бразильский, русско-шотландский, русско-корейский или любой другой редкий акцент.
Добавить к этому уже существующие технологии по дипфейковому липсинку, и у команды дубляжа появятся беспрецедентные возможности для сохранения и передачи культурных нюансов из иностранных сериалов и кино.
Не хочется, чтобы профессия актёра дубляжа уходила насовсем, но в плане прогресса это выглядит очень и очень круто.
Этож по сути text-to-speech движок, только с эмоциями?
И тембрами голоса. Режисер часто подбирает актера с учетом его голоса, особенностей произношения. Но все это теряется при озвучке на другой язык. А эта технология позволяет озвучить роль на другом языке с голосом "оригинала".
Комментарий недоступен
Пора учится создавать своего ИИ.
Диментий, тащи свиней ;-)