YouTube запускает инструмент для защиты от подделок лица и голоса
После презентации Sora 2 стало понятно, насколько легко сегодня создать реалистичное видео, в котором человек выглядит или говорит как в жизни — хотя на самом деле это всего лишь результат работы ИИ. Эта возможность немедленно породила волну дискуссий о том, как публичные люди — и не только они — могут защитить свой образ от несанкционированного использования.
Теперь с конкретным решением выступил YouTube. Платформа официально запустила инструмент, позволяющий авторам находить и запрашивать удаление видео, в которых их лицо или голос сгенерированы без согласия. Это касается именно ИИ-контента — не монтажей и не нарезок с реальными фрагментами, а сымитированных роликов, где человек никогда на самом деле не появлялся.
Новая функция, названная Likeness Detection, встроена в интерфейс YouTube Studio. Она доступна участникам партнёрской программы и позволяет подать запрос на удаление видео, если автор считает, что в нём используется его внешность или голос. Перед этим нужно пройти процедуру верификации — подтвердить, что именно вы изображены в контенте.
Важно, что инструмент не ищет такие видео автоматически по всей платформе. Он работает как средство реагирования: если автор обнаружил ролик, в котором его подделали, он может через личный кабинет инициировать процедуру удаления. Это может быть как жалоба на нарушение авторских прав, так и апелляция по поводу недобросовестного использования образа — например, в рекламе, обзоре или пародии.
Особенно уязвимыми здесь остаются публичные люди — актёры, блогеры, стримеры, у которых легко доступен голос, манера говорить, поведение. Именно они чаще всего сталкиваются с тем, что их якобы участие в видео оказывается результатом генерации.
Сам подход YouTube выделяется тем, что это не просто корректировка политики платформы, а появление инструмента. Он встроен в привычный интерфейс, доступен верифицированным пользователям и фокусируется именно на защите цифровой идентичности — не контента, не канала, а конкретного человека.
На фоне обсуждений, как именно можно регулировать использование чужого лица и голоса в ИИ-контенте, решение YouTube выглядит как первый практический шаг. Пока другие платформы обсуждают риски, YouTube предлагает механизм, с помощью которого можно действовать.
Как вы относитесь к такому нововведению на платформе?