Сервис автоматической озвучки видео Deepdub привлёк $20 млн: его голоса могут сами «кричать и вопить» вместо актёров Статьи редакции
Компания потратит их на расширение команды и развитие платформы.
Деньги в стартап инвестировал фонд Swift VC и бизнес-ангелы: бывший президент Fox Television Studios, бывший коммерческий директор HBO Max и другие. В раунде участвовали существующие инвесторы Booster Ventures и Stardom Ventures, заявила компания.
Стартап потратит деньги на расширение команды из 30 человек, найм сотрудников по маркетингу, инженеров и исследователей для улучшения механизма ИИ.
Стартап в 2019 году основали два брата Офир и Нир Краковски, сейчас в нём работает 30 человек.
Deepdub занимается озвучкой фильмов и сериалов — специалисты записывают 2-4 минутные реплики живых актёров и на их основе создают ИИ-модель, которая переводит речь на нужный язык — это сокращает процесс озвучки с 15-20 недель до четырёх недель. Сколько языков доступно, компания не раскрывает.
ИИ-голоса Deepdub могут «кричать, вопить и делать всё, что сложно подобных программ», сообщил Techcrunch директор по репутации стартапа Оз Краковски.
Deepdub заключил соглашение с потоковым сервисом Topic.com и будет дублировать их иностранные телешоу на английский язык. Deepdub уже озвучила полнометражный фильм «Каждый раз, когда я умираю» на латиноамериканский испанский язык. Кроме того, стартап работает с малыми и крупными голливудскими студиями, но названий не раскрывает. Примеры озвучки можно посмотреть на сайте.
Чтобы рассказать о своей компании и предложить сотрудничество, можно заполнить форму на сайте Deepdub.
- В декабре 2020 года Deepdub закрыл посевной раунд, но сумму стартап не раскрыл.
Комментарий недоступен
Интересно с технической и художественной точки зрения, насколько органично сможет выглядеть переозвучка роли на другом языке, сохранившая характерные особенности локального акцента оригинала.
Условно говоря, вместо стандартного общерусского акцента актеров дубляжа это позволит реконструировать какой-нибудь лёгкий русско-бразильский, русско-шотландский, русско-корейский или любой другой редкий акцент.
Добавить к этому уже существующие технологии по дипфейковому липсинку, и у команды дубляжа появятся беспрецедентные возможности для сохранения и передачи культурных нюансов из иностранных сериалов и кино.
Не хочется, чтобы профессия актёра дубляжа уходила насовсем, но в плане прогресса это выглядит очень и очень круто.
Этож по сути text-to-speech движок, только с эмоциями?
И тембрами голоса. Режисер часто подбирает актера с учетом его голоса, особенностей произношения. Но все это теряется при озвучке на другой язык. А эта технология позволяет озвучить роль на другом языке с голосом "оригинала".
Комментарий недоступен
Пора учится создавать своего ИИ.
Комментарий недоступен
Диментий, тащи свиней ;-)
А я наоборот перешёл на просмотр на языке оригинала (с субтитрами).
Так я хотя бы могу оценить игру самих актёров, оригинальные интонации эмоции.
Мне в одно время понравился "Пляж" Дэни Бойла, с ДиКаприо. Так вот в некоторых местах (например тайский полицейский в участке, когда Даффи покончил с собой) на русском звучит намного интереснее.
С названиями так же. Например, известный фильм "С меня хватит" в оригинале называется "Falling down". Так что до некоторых моментов ИИ еще далеко. Он максимум будет делать "так же", но не лучше.
«Ублюдок, мать твою, а ну, иди сюда, говно собачье, а? Ну, решил ко мне лезть? Ты, засранец вонючий, мать твою, а? Ну, иди сюда, попробуй меня трахнуть - я тебя сам трахну, ублюдок, онанист чёртов, будь ты проклят! Иди, идиот, трахать тебя и всю твою семью! Говно собачье, жлоб вонючий, дерьмо, сука, падла! Иди сюда, мерзавец, негодяй, гад! Иди сюда, ты, говно, жопа!»
Комментарий удален модератором