Microsoft выпускает инструмент ИИ для фотореалистичного копирования лиц и голосов

В ответ на критику, что Azure AI Speech является просто "создателем дипфейков", Microsoft заявила, что внедрила меры безопасности.

Microsoft выпускает инструмент ИИ для фотореалистичного копирования лиц и голосов

На своей конференции для разработчиков на этой неделе Microsoft объявила о своем последнем вкладе в гонку искусственного интеллекта: программном обеспечении, способном генерировать новые аватары и голоса или копировать существующий внешний вид и речь пользователя. Это вызвало опасения, что такой инструмент может усилить создание дипфейков — видео, созданных с помощью ИИ, о событиях, которые не происходили.

Объявленный на конференции Microsoft Ignite 2023, Azure AI Speech обучен на человеческих изображениях и позволяет пользователям вводить сценарий, который затем может быть "прочитан" вслух фотореалистичным аватаром, созданным с помощью искусственного интеллекта. Пользователи могут выбрать предзагруженный аватар Microsoft или загрузить видеоматериалы человека, чей голос и внешность они хотят воспроизвести. Microsoft в своем блоге, опубликованном в среду, заявила, что инструмент может использоваться для создания "разговорных агентов, виртуальных помощников, чатботов и многого другого".

В блоге говорится: "Клиенты могут выбрать как предварительно созданный, так и собственный нейронный голос для своего аватара. Если для собственного нейронного голоса и аватара с текстом-в-речь используется голос и внешность одного и того же человека, аватар будет тесно напоминать этого человека."

Компания заявила, что новое программное обеспечение для преобразования текста в речь выпускается с рядом ограничений и мер безопасности, чтобы предотвратить его злоупотребление. "Как часть обязательств Microsoft по ответственному использованию ИИ, аватар с текстом-в-речь разработан с целью защиты прав человека и общества, обеспечения прозрачного взаимодействия человека с компьютером и противодействия распространению вредных дипфейков и вводящего в заблуждение контента", - заявила компания.

"Клиенты могут загрузить свою собственную видеозапись аватара-таланта, которую функция использует для обучения синтетическому видео собственного аватара, говорящего", - говорится в блоге. "Аватар-талант" - это человек, позирующий перед прямоугольной "камерой" ИИ.

Объявление Microsoft быстро привлекло критику о том, что компания запустила инструмент для создания "дипфейков", который упростит копирование внешности людей и позволит заставить их говорить и делать то, чего они на самом деле не говорили и не делали. Президент Microsoft в мае выразил свои опасения, заявив, что дипфейки являются его "главной беспокойствой" проблемой в связи с развитием искусственного интеллекта.

В официальном заявлении компания ответила на критику, заявив, что настраиваемые аватары теперь являются инструментом с "ограниченным доступом", на использование которого клиенты должны подать заявку и получить одобрение от Microsoft. Также пользователям будет необходимо раскрывать информацию о том, когда ИИ использовался для создания синтетического голоса или аватара.

Благодаря этим мерам безопасности мы помогаем ограничить потенциальные риски и даем пользователям возможность безопасно и прозрачно внедрять продвинутые возможности голоса и речи в их приложения ИИ

Сара Берд из подразделения Microsoft, ответственного за ИИ

Создатель аватаров с функцией преобразования текста в речь - это последний инструмент в гонке ведущих технологических компаний, стремящихся воспользоваться бумом искусственного интеллекта в последние годы. После бурного успеха ChatGPT, запущенного компанией OpenAI с поддержкой Microsoft, компании, такие как Meta и Google, представили на рынок свои собственные инструменты искусственного интеллекта.

С ростом ИИ возникают всё большие опасения по поводу возможностей этой технологии. Эксперты говорят, что дипфейки представляют особую угрозу в контексте вмешательства в выборы. Microsoft в этом месяце запустила инструмент, позволяющий политикам и кампаниям аутентифицировать и наносить водяные знаки на свои видео, чтобы подтвердить их подлинность и предотвратить распространение дипфейков. Meta на этой неделе объявила о политике, требующей раскрытия использования ИИ в политической рекламе и запрещающей кампаниям использовать собственные генеративные инструменты ИИ Meta для рекламы.

11
Начать дискуссию