Система также чаще будет предлагать наиболее популярные видео, отслеживать глубину просмотра (досмотрели ли вы видео до конца), лайки и дизлайки, поделились ли вы видео и так далее. Полагаю, вы также знаете, что некоторые типы контента «пессимизируются» в поиске, то есть, рекомендуются пользователям меньше. Обычно речь идет о демонстрации сцен насилия, нецензурной брани и прочих подобных вещах.
Кстати, система оценки релевантности у YouTube динамическая. Например, если вы делитесь видео, оно будет считаться понравившимся вам, и система найдет для вас похожие видео. Однако, если вы часто делитесь видео, но при этом ставите им низкие оценки (иногда после просмотра вам предлагают оценить, насколько вам понравилось видео), то система будет меньше обращать внимание на то, что вы чем-то с кем-то поделились. Потому что для вас, похоже, это не признак одобрения.
В рамках ответственного подхода к формированию рекомендаций алгоритмы YouTube оценивают «полезность» или качество контента и меньше продвигают контент, признанный некачественным. В пример автор цитируемой мной публикаций приводит видео о плоской Земле – такие должны рекомендоваться вам меньше, даже если они вам нравятся. Является ли этот подход ответственным? Я сомневаюсь. Мне кажется, что площадка не должна ограничивать пользователей в выборе контента, если он не нарушает законодательство и не несет вреда окружающим. Я имею в виду контент с призывами к насилию, например, – это повод привлечь внимание правоохранительных органов. Однако в какой-то момент мы приходим к тому, что площадка решает, какой контент нам полезен, а какой нет, как будто мы неразумные дети. Для детей, пожалуй, такие ограничения имеют смысл, но для взрослых? Я не вижу в этом подходе ответственности, если честно. Более того, в самом же посте написано, что зрители сами не считают «пограничный» (или «некачественный», как было сказано ранее) контент привлекательным и сами смотрят его меньше.