Могут ли отключить монетизацию за использование нейросетей? И другие вопросы про ИИ на YouTube

Привет! С вами Екатерина Городничева, директор агентства YouStory Global. В этом году на YouTube ожидается введение новых правил, регламентирующих распространение контента, созданного или видоизменённого с помощью ИИ. Я обратилась в поддержку YouTube с вопросами об этом и смогла прояснить некоторые нюансы.

Источник фото — unsplash.com
Источник фото — unsplash.com

Могут ли отключить монетизацию, если на YouTube-канале есть ИИ-контент?

Да, отключение монетизации и исключение из Партнёрской программы при некорректном распространении ИИ-контента возможно. Об этом в конце 2023 года в официальном блоге YouTube рассказали вице-президенты по управлению продуктами Дженнифер Фланнери О’Коннор и Эмили Моксли.

Что такое некорректное распространение контента?

В статье О’Коннор и Моксли анонсировали появление на YouTube нового элемента описания видеороликов: ярлыка «Синтетический контент». Добавлять этот ярлык нужно будет в том случае, если видео выглядит реалистично, но частично или полностью создано с помощью нейросетей.

Авторов, которые будут игнорировать необходимость раскрытия этой информации, могут исключить из Партнёрской программы YouTube, их видео могут быть удалены либо возможны другие ограничительные меры.

Официальный блог YouTube

В ответе, который я получила от специалиста поддержки YouTube, было ещё одно уточнение по этому поводу:

— Я не могу вам сказать, что для YouTube-канала невозможна монетизация при использовании нейросетей. Но стоит учитывать, что контент проверяется нашей системой: как машинными технологиями, так и вручную. Вы сами принимаете решение, какие технологии при создании контента применять.

Можно предположить, что модерация созданного с применением ИИ контента будет более тщательной, в том числе и для того, чтобы наработать опыт и алгоритмы выявления опасного контента. Например, дипфейков на известных персон или роликов, реалистично показывающих события, которых никогда не было и т.п.

Ещё одно важное дополнение из ответа техподдержки YouTube, которое я получила:

— В 2024 году мы введем новую систему, она позволит зрителям сообщать о том, что контент создан или изменен искусственным интеллектом. После такого обращения в раздел с описанием видео будет добавляться необходимый ярлык.

О чём стоит помнить, загружая на YouTube видео, созданное с применением нейросетей?

  • Ролик не должен представлять из себя дезинформацию. Это особенно важно в тех случаях, когда в видео обсуждаются такие темы как выборы, военные конфликты, здравоохранение, деятельность политиков и чиновников.
  • В роликах не должно быть сцен насилия и другого шок-контента. Подобный контент будет удаляться.
  • В случае с реальными сценами насилия, в некоторых исключительных случаях их публикация на YouTube возможна, например, в рамках образовательного или документального контента. Однако искусственно сгенерированные видео, демонстрирующие опасные действия и причинение вреда здоровью – точно не тот контент, в котором заинтересован YouTube.
  • Ролик будет автоматически отмечен соответствующим ярлыком, если при его создании использовалась функция «Экран мечты» и другие инструменты генеративного искусственного интеллекта, которые YouTube предоставляет своим авторам.
  • Пометку «Синтетический контент» нужно будет ставить, в т.ч. на роликах, переведённых на иностранный язык с помощью нейросетей, а также на видео, в которых используется искусственно сгенерированная музыка.

Отслеживание дипфейков

Снова цитирую ответ из техподдержки:

— Пока у нас нет конкретных правил для борьбы с дипфейками. Главным инструментом является возможность пожаловаться на искусственно сгенерированный контент, который имитирует реального человека. Например, можно сообщить о нарушении конфиденциальности на YouTube.

Решение по результатам такой жалобы зависит от содержания ролика и от того, кто в нём изображён. Если это чиновник, политик или известная персона, вероятность блокировки выше. Если ролик содержит элементы пародии или сатиры, его могут не счесть дипфейком и отказать в блокировке.

Стоит учитывать, что при рассмотрении жалоб на дипфейки большое значение имеет возможность однозначно идентифицировать человека, подающего запрос.

Лейблы и музыкальные дистрибьюторы, являющиеся партнёрами YouTube, смогут обращаться за удалением искусственно созданного музыкального контента, если в нём имитируется уникальный голос исполнителя.
В заключении хочу сказать, что при публикации ИИ-контента стоит особенно внимательно относиться к соблюдению Правил сообщества YouTube, а также избегать распространения роликов, которые тем или иным образом могут ввести зрителей в заблуждение.

Спасибо за внимание! Буду рада вашей обратной связи! Пообщаться со мной о применении нейросетей на YouTube можно у меня в ТГ-канале.

Реклама. Рекламодатель — ИП Городничев. ИНН 590849322520. erid: 2VtzqvcRPeQ

22
4 комментария

да ничего они не будут глобально делать. это все слова для прессы)

это как с яндексом. все знают, что ботовый трафик в РФ чуть ли не половина. но как то борится яндекс с этим? скорее нет чем да, потому что они сами с него зарабатывают. для вида могут сказать, что мы работаем над этим, на деле им важна их же прибыль.

так и тут. ну создан контент нейросетью и что? пипл хавает, ютубчик бабосы с рекламодателей стрижет. делится с автором такого канала своими копейками. и все в плюсе) потому что пользователи раз смотрят нейросетевой контент, то им тоже норм)

1
Ответить

Возможно) практика покажет, в любом случае отметки «синтетического контента» включат, а там уже будет более понятно

Ответить

Интересно, как YouTube будет реагировать на видео, созданные с помощью нейросетей

1
Ответить