OpenAI представила новую ИИ-модель по клонированию голоса. Она опасна, так как умеет клонировать голос любого человека

OpenAI представила новую ИИ-модель по клонированию голоса. Она опасна, так как умеет клонировать голос любого человека

На протяжении многих поколений люди хранят фотографии, вещи, видеозаписи и т. д. членов своей семьи. Но что, если искусственный интеллект позволит вам снова услышать, как они разговаривали? Хороший ли это способ "держать их рядом", или это будет вызывать тревогу?

Недавно компания OpenAI анонсировала Voice Engine - модель ИИ, которая может копировать голос любого человека, используя всего лишь 15-секундную запись его разговора.

Еще больше полезностей - в телеграм-канале про нейросети и канале про генерацию изображений Миджорниум.

Что такое Voice Engine?

Voice Engine - это модель, предназначенная для генерирования естественной речи, точно имитирующей голос собеседника, используя только текстовый ввод и один 15-секундный аудиосэмпл. Эта технология, разработанная в конце 2022 года, демонстрирует способность генерировать эмоциональные и реалистичные голоса даже при использовании небольшой модели и ограниченного количества исходных данных.

Она была использована для создания предустановленных голосов в API преобразования текста в речь, ChatGPT Voice и функциях чтения вслух, что подчеркивает ее универсальность и эффективность в создании реалистичной речи из текста.

Я помню S2E1 хитового сериала Netflix "Черное зеркало" под названием "Be Right Back", в которой рассказывается о молодой женщине, чей парень погибает в автокатастрофе.

OpenAI представила новую ИИ-модель по клонированию голоса. Она опасна, так как умеет клонировать голос любого человека

Оплакивая его, она обнаруживает, что теперь технологии позволяют ей общаться с искусственным интеллектом, имитирующим его.

Хотя это вымышленный сценарий, Voice Engine делает подобные приложения реальной возможностью.

3 лучших применения клонирования голоса

В своем блоге OpenAI представила несколько практических примеров использования Voice Engine, и вот три наиболее понравившихся мне варианта применения:

  1. Перевод контента. Voice Engine может переводить контент, например видео и подкасты. Эта технология позволяет компаниям и авторам переводить контент на несколько языков, сохраняя при этом голос и акцент диктора.
  2. Поддержка глухонемых людей. Voice Engine - это большая помощь людям, которые не могут говорить. Он наделяет их уникальными голосами, которые звучат естественно, а не как у роботов.
  3. Помощь пациентам в восстановлении голоса. В Институте нейронаук Нормана Принса Voice Engine помогает пациентам, которые потеряли способность говорить из-за болезни или травмы. С помощью короткого аудиоклипа врачи могут воссоздать голос пациента.
OpenAI представила новую ИИ-модель по клонированию голоса. Она опасна, так как умеет клонировать голос любого человека

Лично мне не терпится увидеть, как Voice Engine будет интегрирован в наши любимые приложения и устройства. Потенциальные возможности использования, как в приведенном ниже списке, поистине удивительны.

  • Возможность использовать свой голос на других языках, чтобы я мог делать локализацию для своих видеороликов на YouTube, была бы огромной.
  • При создании игр, развлекательных программ или радиодрам Voice Engine позволит одному человеку убедительно озвучивать несколько ролей, обеспечивая большую творческую свободу при ограниченном бюджете.
  • Представьте, что вы смотрите фильм Netflix на японском языке и можете мгновенно переключиться на любой язык, сохранив при этом голоса актеров.

Чтобы по-настоящему оценить мощь и потенциал голосового движка OpenAI, вам нужно услышать его. Я настоятельно рекомендую вам ознакомиться с примерами на сайте OpenAI.

Клонирование голоса - это очень опасно

Конечно, потенциальные преимущества Voice Engine велики, но все же стоит учитывать и значительные риски. Такая продвинутая технология клонирования голоса потенциально может быть использована для нанесения реального вреда людям, организациям и обществу в целом.

  1. Возможность мошенничества и афер. Преступники могут клонировать голоса людей, чтобы обманывать других с целью получения финансовой выгоды. Например, мошенники могут выдавать себя за родственников, представителей власти или деловых партнеров, чтобы обманом заставить жертву перевести деньги или раскрыть конфиденциальную информацию.
  2. Распространение дезинформации и поддельного контента. Это оружие может быть использовано для создания поддельных аудиозаписей, в которых общественные деятели говорят то, чего они на самом деле не говорили. Сгенерированные голосовые аудиозаписи могут использоваться для распространения фальшивых новостей, пропаганды, теорий заговора и мистификаций в беспрецедентных масштабах.
  3. Нарушение конфиденциальности и согласия. Создать фальшивый аудиоконтент любого человека без его ведома или согласия очень просто, если есть образец его голоса. Это открывает возможности для создания поддельных частных разговоров и других неприятных вторжений в частную жизнь. Даже если не распространять информацию публично, клонирование голоса без согласия является нарушением.
  4. Может оставить без работы актеров озвучивания. Клонирование голоса позволит режиссерам и авторам получить именно тот звук, который они хотят для своих персонажей. По сути, это замена актеров озвучивания и кража их образов.
  5. Может усложнить судебные разбирательства и журналистику. По мере того как клонирование голоса становится все более доступным и реалистичным, это может подорвать доверие к аудиозаписям как к надежным доказательствам. Поддельные голосовые сообщения, записи встреч и интервью могут быть использованы для ложного уличения людей или чтобы посеять сомнения.
OpenAI представила новую ИИ-модель по клонированию голоса. Она опасна, так как умеет клонировать голос любого человека

Как получить доступ?

OpenAI еще не выпустила модель искусственного интеллекта в широкое пользование из-за опасений по поводу возможного злоупотребления и этических последствий.

Компания с осторожностью относится к более широкому выпуску Voice Engine и сотрудничает с ограниченным числом партнеров, которые согласились на особые условия использования, например, не выдавать себя за людей без согласия и раскрывать информацию о том, что голоса генерируются искусственным интеллектом.

Компания также работает над внедрением механизмов безопасности, чтобы предотвратить злонамеренное использование Voice Engine и гарантировать, что технология не будет использоваться в преступных целях.

Опасности, которые таит в себе модель ИИ, клонирующая голос, неизбежны.

При злоупотреблении клонирование голоса может привести к новым уровням мошенничества, краже личных данных, дезинформации и нарушению неприкосновенности частной жизни. Это грозит разрушением целых отраслей, таких как актерское мастерство.

Если любой голос будет идеально воспроизведен искусственным интеллектом, как мы сможем доверять тому, что слышим?

Нам придется адаптироваться к эпохе, когда звук можно будет генерировать так же легко, как и текст. Подобно тому как "фото, или этого не было" стало общим рефреном, скоро "подпись, или это не реально" может появиться по мере распространения аудиоподделок. Здоровая доза скептицизма будет оправдана.

Еще больше полезностей - в телеграм-канале про нейросети и канале про генерацию изображений Миджорниум.

Источник статьи на английском - здесь.

2424
13 комментариев

в защиту технологии хочу написать, что мошенники всегда были и будут использовать любые методы для обмана, с технологиями или без.
—-
если не брать близких тебе ушедших людей потому, что это "больно" / а например артистов. Я бы с удовольствием послушал Владимира Семеновича, если бы например SUNO придумала мелодию в его стиле, на стихи например Булата Окуджавы.

1

это понятно, но теперь у них в руках оружие по сути, да и тут речь уже не только о мошенниках, а вообще о всех людях. МОжно разрушить репутацию любого человека таким образов

2

Но если они получат доступ к таким технологиям, то будет еще легче обманывать людей.

Ну это сразу надо регулировать законом, иначе будет очень много бед!

1

В мире, где искусственный интеллект может идеально воспроизводить любой голос, важно развивать технологии аутентификации голоса и другие методы, чтобы подтвердить подлинность информации. Помимо этого , развитие стандартов и законодательства в области подлинности голосовых данных может быть ключевым фактором в доверии к аудиоинформации в будущем.

1

ох,это усилит мошенничество в разы , поэтому мне кажется рискованно выпускать данную модель

Думаю, нужна некая личная электронная подпись, чтобы подтверждать, что это ты, и удостовериваться в том, что это тот, кто ты думаешь.
В важных вопросах, про общении через Сеть и по телефону.
А, возможно, что и в текущих, также.