YouTube тайно улучшал лица пользователей с помощью ИИ — и попался

Классическая история про то, как запустить эксперимент и не подумать о последствиях.

YouTube признался, что уже несколько месяцев использует машинное обучение для улучшения лиц на видео в Shorts. Технология работала в фоновом режиме, автоматически корректируя освещение и детали лица без уведомления создателей контента. Пользователи заметили изменения и начали задавать вопросы — только тогда компания решила рассказать правду.

Самое интересное в этой истории — не сама технология, а подход к её внедрению. Продуктовая команда YouTube решила, что улучшение качества видео — это однозначно хорошо, поэтому можно включить функцию для всех по умолчанию. При этом никто не подумал о том, что пользователи могут захотеть контролировать этот процесс.

Результат предсказуем: недоверие аудитории и вопросы о том, какие ещё эксперименты проводятся без их ведома.

Вся ситуация показывает классическую ошибку в продуктовом мышлении:

📌 Фокус на технических возможностях вместо пользовательского контроля

📌 Предположение, что «улучшение» всегда желанно

📌 Отсутствие прозрачности в коммуникации с пользователями

Особенно забавно, что в эпоху повышенного внимания к приватности и согласию пользователей, YouTube выбрал стратегию «сначала делаем, потом объясняем». Это работало в 2010-х, но сейчас такой подход только вредит репутации. Плюс попали в тренд недоверия обработанным с помощью AI видео, хотя представители YouTube клянутся, что это простое машинное обучение, а не GenAI.

Урок простой: если ваш продукт изменяет пользовательский контент с помощью ИИ, дайте людям возможность это контролировать. Прозрачность и выбор важнее технологических улучшений.

А как бы вы поступили на месте человека, который планировал этот эксперимент?

Подписывайтесь на Telegram Продукторий Владимира Меркушева.

Начать дискуссию