{"id":13506,"url":"\/distributions\/13506\/click?bit=1&hash=27fcb5113e18b33c3be66ae079d9d20078d1c30f1b468cdc86ecaeefa18446c2","title":"\u0415\u0441\u0442\u044c \u043b\u0438 \u0442\u0432\u043e\u0440\u0447\u0435\u0441\u0442\u0432\u043e \u0432 \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0438? \u0410 \u0435\u0441\u043b\u0438 \u043d\u0430\u0439\u0434\u0451\u043c?","buttonText":"\u0423\u0436\u0435 \u043d\u0430\u0448\u043b\u0438","imageUuid":"2c16a631-a285-56a4-9535-74c65fc29189","isPaidAndBannersEnabled":false}
SEMANTICA

Кроличьи норы, эхо-камера и токсичная позитивность – что с нами делают умные ленты

Последние три месяца многие из нас постоянно потребляют контент на политические темы (сами знаете, на какие именно). Мои рекомендательные ленты довольно быстро адаптировались и показывают публикации, полностью (или почти) совпадающие с моим мнением. Я обнаружила себя в информационном пузыре… а пока из него выбираюсь, разузнала, как работают умные ленты, почему они везде используются и какие опасности в себе таят.

Что такое умная лента?

Это программный код, который анализирует действия пользователей в интернете. И на основе полученных данных выдаёт тот контент, который с большей вероятностью понравится конкретному пользователю. Анализироваться могут разные параметры в зависимости от типа контента и от возможностей взаимодействия с ним. Рекомендательные ленты есть в интернет-магазинах, на маркетплейсах, стриминговых сервисах.

Алгоритмы не только показывают новости со страниц друзей, они подбирают музыку, показывают возможных партнеров в приложениях для знакомств, предлагают подписаться на людей или сообщества. Наверное, я не ошибусь, если скажу, что в каком-то смысле они формируют наши интересы. Нетфликс, Тиндер, Лямода, ВК – практически все сервисы с большой аудиторией сейчас используют алгоритмы формирования рекомендаций.

Если бы ВК показывал в ленте фото детей двоюродного брата вашей жены или записи со страницы дальнего родственника, вряд ли вы много времени проводили на платформе. А платформе нужно ваше время – это основной её капитал. Поэтому подборки становятся точнее и персонализированнее.

Как это работает?

Мало кто помнит, но осенью 2021 года Госдума РФ готовила законопроект, согласно которому платформы будут обязаны дать возможность пользователям отключать умные ленты. По словам чиновников алгоритмы повышают риски социальных конфликтов. Закон не приняли, но прецедент показывает, что формирование рекомендаций волнует не только продавцов, но и политиков. И это неудивительно, ведь цифровая реальность влияет на наши представления о том, что хорошо, а что плохо.

С одной стороны. Большинство россиян живут совсем не так, как их кумиры в Инстаграме*. В то время, как блогерша устраивает день рождения пятилетней дочери в огромном замке с бассейном, батутами и лошадьми, среднестатистическая российская мама тщательно высчитывает, сколько обойдётся праздник для ребенка в соседнем торговом центре, и сколько человек пригласить, чтобы уложиться в бюджет. Получается, что интернет продаёт нам не только товары и услуги, но и представление о хорошей жизни, мечту о том, где жить, что покупать и как выглядеть. А ленты рекомендаций показывают эти образы и закрепляют в нашем сознании.

Болезненная разница между тем как мы хотим жить и как живем, гарантирует как минимум испорченное настроение. А еще показывает, как сильно мы реагируем на контент, который потребляем.

С другой стороны. Умные ленты в каком-то смысле уравняли всех – алгоритмам всё равно, насколько уникальные у вас интересы, миллионер вы, экоактивист или плоскоземельщик. Алгоритм для каждого старается составить идеальную подборку. Facebook не старается сделать ленту Илона Маска лучше, чем любого пользователя из Хабаровска. А информация, попадающая в ленту Трампа, доступна всем остальным. К тому же люди испытывают постоянную когнитивную нагрузку из-за огромного обилия информации. Алгоритмы снижают энтропию и помогают сократить время на поиски и ресурсы на выбор. Во время пандемии точные рекомендации Нетфликса, возможно, спасли кого-то от депрессии или развода, а Спотифай помогал многим пережидать вынужденное заключение дома.

Источник: https://unsplash.com/

Почему умная лента прижилась в больших медиа

Когда на платформе много контента, большая его часть не интересна отдельному пользователю. Скажем, из 100% публикаций на Дзене пользователь потребляет 1% или даже меньше. Если показывать ему абсолютно все новые статьи, то, даже листая ленту целый день, он может не добраться до материалов, которые покажутся ему интересными. Пользователь просто замучится искать. Можно делить контент на рубрики, делать фильтры для поиска, присваивать статьям на определенные тематики теги, но вряд ли это покажется современному пользователю удобным. Да и выбирать из огромного меню никто не любит, это отпугивает людей и они выбирают не выбирать ничего.

Особенно много проблем в мобайле. Если контента много, бесконечный каталог с темами, оформленный в одну колонку (верстка из двух или трех колонок в мобайле невозможна) будет долго и неудобно просматривать. Уходы с платформы гарантированы.

Примерное это же можно сказать и о соцсетях. Согласно исследованиям, проведённым представителями компании ВКонтакте, в среднем пользователь подписан на несколько сотен друзей и сообществ. Они публикуют более 500 записей в день. Проводя в соцсети в среднем 2-3 часа в сутки, невозможно успеть просмотреть весь этот контент. Средний пользователь успевает просмотреть только 20% контента.

Тут два пути: выдавать пользователю обновления в хронологическом порядке или формировать ленту искусственно. Первый вариант не подходит, потому что в подборку, которую успеет посмотреть пользователь, могут попасть неинтересные публикации. А соцсети нужно, чтобы пользователи как можно больше времени проводил здесь и чаще взаимодействовал с публикациями. Поэтому показ персонализированный подборки с учётом большого количества контента вполне оправдан. Взаимодействие с чужими публикациями и реакции на собственные – единственный интерес пользователя. Учитывая, что и авторами и потребителями контента в соцсетях являются одни и те же люди, и тем и другим в зависимости от роли в конкретный момент нужен соответствующий фидбек. Я выкладываю сторис в Инстаграм* и жду ответов на неё. Листая ленту, я рассчитываю увидеть интересные публикации. Если я получаю реакцию на сторис и вижу интересный контент в ленте, я чаще захожу в приложение и больше времени провожу в нём.

Источник: https://unsplash.com/

Где используют умные ленты?

Обычно люди не придают этому значения, но своей активность в соцсетях они помогают роботам обучаться и предлагать более актуальный контент. Если задаться целью и надрессировать алгоритм, то вы регулярно будете получать интересный контент.

П.С. Если вам этот раздел не интересен, пролистывайте ниже. Там про страшилки.

Вконтакте. В умную ленту новостей попадают самые потенциально интересные публикации из подписок пользователя. Интерес определяется на основе реакции пользователя на контент – на что он откликается, чем делится, на чём задерживает внимание. Алгоритм учитывает и тип контента, который пользователь предпочитает другим. Например, если вы чаще всего смотрите видеоролики ВКонтакте, то новые видео в вашей ленте будут выше текстовых постов или аудиозаписей.

Facebook*. Здесь предметом анализа становятся так называемые точки данных. Они периодически меняются – какие-то добавляются или удаляются в зависимости от поведения пользователей. Если в 2009 году наверху умной ленты оказывались посты с наибольшим количеством лайков, то в 2020-ом предпочтение отдается публикациям, информация из которых оценивается алгоритмами как достоверная.

По-прежнему огромное значение имеют комментарии подписки, отписки, упоминания. Алгоритм отмечает с чьими постами вы чаще всего взаимодействуете. Например, вы подписаны на группу крупного ритейлера. Под его постом будет больше комментариев и лайков, чем под публикацией вашего друга, которого вы часто отмечаете на фотографиях. Но приоритетный показ получит публикация вашего друга, потому что вы с большей вероятностью провзаимодействуете с ней.

TikTok. Если вы новый пользователь, ваша лента будет сформирована на основании выбранных категорий. Затем алгоритмы будут формировать персонализированные ленты на основе взаимодействия с видео – подписка на автора, лайк, репост. Огромное значение играет время просмотра (видимо, даже большую, чем взаимодействия). Если вы никак не отреагировали на ролик, но полностью его просмотрели, алгоритмы высоко оценят этот фактор. Сначала в умной ленте оказываются самые популярные видео на определённую тему, потом алгоритмы углубляются в более нишевые темы. Скажем, сначала вам показывают подборку смешных видео с животными, а потом эта подборка сужается до видео с, например, французскими бульдогами. Некоторые пользователи отмечают, что их лента на 90% состоит из роликов на схожую тематику, а остальные 10 рекламные публикации. Чтобы избежать такого развития событий, алгоритмы периодически показывают пользователям ролики на отвлечённые тематики и чекают реакции на них.

YouTube. Алгоритм рекомендации YouTube был запущен в 2016 году. Представители компании утверждают, что алгоритм рекомендаций всегда следует за аудиторией. Основной фактор ранжирования – реакция пользователей на конкретное видео. У алгоритма нет ограничений на количество видеороликов с одного канала. Если у видео много лайков, хорошее время просмотра, на него часто кликают и у него много комментариев, оно будет показываться в качестве рекомендованного.

Мне не нравится, как у меня работают алгоритмы Ютуба – мне часто предлагают посмотреть странные исторические ролики, например, хотя я такое почти не смотрю. Очень долго я отучала Ютуб показывать мне видео про мейкап, маникюр, уход за волосами и т. д. А в разделе с музыкой вообще какой-то ад – мне рекомендуют Арию, Газманова и Басту, хотя ничего из этого я не слушаю.

Тиндер. Приложение использует рейтинговую систему – чем больше вас свайпнули, тем вы выше в рейтинге. В том числе имеет значение рейтинг того, кто свайпает – чем он выше, тем его мнение ценнее и наоборот. Сильно влияет на ленту внешность – вам показывают людей, сопоставимых по внешней привлекательности с вами. Как это определяется не очень понятно, видимо на это влияет тот же рейтинг. У Тиндера есть искусственный интеллект, который понимает, что изображено на фотографии. Если вы на фото с котом, то вам будут показываться потенциальные партнёры, отметившие в биографии любовь к кошкам. А если вы на фото путешествуете, вам будут показаны путешественники. Тиндер ищет точки соприкосновения пользователей и показывает партнеров на основе сходства.

Яндекс Дзен. В основе рекомендательной ленты Дзена лежит искусственный интеллект. Работает он по двум технологиям:

  • по содержимому: алгоритм предлагает контент, соответствующий интересами пользователя. Интересы определяются по активностям – лайкам, шерам, комментариям и т. д. Например, если вы поставили высокую оценку фильму «Стражи Галактики» и низкую «Титанику», фильмы про супергероев попадут в вашу рекомендательную ленту, а вот мелодраматические фильмы вряд ли.
  • коллаборативная фильтрация подразумевает, что алгоритмы анализируют поведение пользователей и советуют вам новый контент, который нравится пользователям с похожими интересами.

Почему столько страхов вокруг умных лент и насколько они обоснованы

В основном эти страхи связаны с утечкой персональных данных, с манипулированием мнениями и с опасными психологическими состояниями, развитие которых может провоцировать интернет. Давайте сейчас поговорим о каждом из этих страхов подробнее, потому что они не беспочвенны.

Источник: https://unsplash.com/

Утечка информации

Чтобы сделать хорошую рекомендательную ленту, нужно собрать много данных о пользователях. Мы, давая согласие на обработку данных, надеемся, что корпорации собирают общедоступную информацию: что мы лайкнули и где написали комментарий. А вот утечки личной информации мы небезосновательно опасаемся. В основном по двум причинам.

Первая рациональная: если персональные данные (пароли, паспортные данные, банковские реквизиты) попадут в руки мошенников, их используют против нас.

Вторая иррациональная: наши данные – это мы сами. Наша жизнь, привычки, предпочтения, секреты – при желании всё это можно вытащить из того, что мы делаем в интернете.

Официально персональными данными считаются четыре вида информации:

  • Общие – имя, место жительства и работы, номер телефона, адрес электронной почты и тд.
  • Специальные – семейное положение, религиозные взгляды, политические убеждения и тд.
  • Есть еще биометрические данные – рост, вес, цвет волос и глаз, отпечаток пальца, конечно. Это данные, которые не меняются со временем.
  • И так называемые «иные данные», например, IP адреса. По ним можно идентифицировать человека как пользователя интернета.

Существует специальный регламент, который устанавливает правила по работе с персональными данными – GDPR – (General Data Protection Regulation). Но в России он не работает. Зато работает ФЗ № 152-ФЗ от 27.07.2006, который предусматривает 4 правила:

  • Нужно перенести базы с персональными данными на российские серверы и хостинги
  • Зарегистрироваться как оператор персональных данных
  • Получить согласие на сбор и обработку данных
  • Разместить на сайте политику обработки данных

В принципе любые данные о себе можно забрать из любой компании, но нет какого-то особенного органа, который бы регулировал это. Поэтому забрать их сложно, долго и не точно получится.

Если говорить про рекомендательные ленты в контексте личных данных, людей больше всего пугает, что их подслушивают. У меня тоже такое сто раз было. Я еще не завела щенка и даже почти никому об этом намерении не говорила, а мне уже показывалась реклама корма для собак.

Специалисты по кибербезопасности из компании Wandera в ходе эксперимента не нашли следов прослушки, Большинство экспертов сходятся во мнении, что:

  • Прослушивать пользователей было бы очень дорого – звук нужно записывать в облачные хранилища и обрабатывать. Сбор и обработка такого огромного количества данных потребовала бы кучи денег.
  • Реклама, которую мы видим, вовсе не результат прослушки, а нашего поведения в сети – что мы гуглим, какие товары смотрим в магазинах и тд.

Я ничего про собаку не гуглила (насколько я помню), поэтому меня эта версия не убедила. Есть еще такая: когда мы устанавливаем приложение, мы соглашаемся, чтобы оно имело доступ к камере и микрофону. Теоретически через микрофон можно записывать наши разговоры и передавать в третьи руки. А еще голосовые помощники могут прослушивать нас. Нет никаких внятных доказательств (насколько я знаю), что такое происходит, но скандалов с нарушением приватности достаточно. Есть случаи, когда Apple передавали образцы речи, записанные голосовым ассистентом. Полностью защитить свои данные невозможно, но запретить приложениям доступ к микрофону мы можем. Отказаться от голосового помощника тоже вполне реально. Но все-таки нужно смириться с тем, что всякий раз заходя в интернет, мы в какой-то степени отказываемся от собственной приватности.

Манипулирование мнением

Источник: https://unsplash.com/

Нет сомнений, что техногиганты влияют на наши представления о том, что хорошо и плохо. Представление о красоте сейчас полностью формируется в интернете, как и мнение о том, что значит быть успешным предпринимателем или хорошим родителем.

Но когда мы говорим о манипулировании, мы подразумеваем умышленное убеждение людей в каком-то мнении, чтобы затем ими управлять.

В 2016 году произошел скандал, связанный с маркетинговой компанией Cambridge Analytica, Facebook* и выборами Трампа. Cambridge Analytica собрала данные 50 млн пользователей Фейсбука* и показывала им рекламу определенного содержания. Это помогло Трампу выиграть выборы. Чтобы собрать данные, они создали психологический тест, за прохождение которого платили деньги. Перед тем, как начать тестирование, программа просила соглашение на использование данных профиля пользователя на FB и его друзей. Заявлялось, что данные нужны для научных целей, но на самом деле их использовали в Cambridge Analytica. На основе данных они составляли точный портрет пользователя – в том числе политические убеждения, интересы и особенности характера. Оказалось, что очень много о человеке говорят его лайки – именно благодаря анализу лайков можно предугадать возможные сценарии поведения человека. Эта информация помогла компании создавать рекламу, которая очень точно попадала в убеждения пользователя и формировала его поведение.

Лайки показывают публичное одобрение, а дизлайки неодобрение. Не до конца понятно, на каком основании люди ставят лайки, но, видимо, это что-то типа маркера «свой-чужой». Если у поста много лайков, значит, то, что на нем демонстрируется, социально одобряемо. И это одобрение воспринимается, как объективное и поэтому правдивое. Как правило, именно такие посты – на которые с большей вероятностью отреагируют – попадают к нам в ленту. Это выгодно для продавцов артефактов социально одобряемой жизни. Для человека абсолютно нормально тяготеть к поведению, которое одобряется в его референтной группе. Например, если политически не определившийся пользователь увидит, что представители его референтной группы склонны голосовать за конкретного кандидата, велика вероятность, что он проголосует так же.

Видимо, если подогнать умные ленты под психологические особенности пользователей, действительно можно управлять их поведением. Манипулировать можно по-разному – показывать пользователю заведомо ложную информацию или склонять его к определенными реакциям, отбирая в ленту позитивно или негативно окрашенный контент. В 2012 году FB* провел эксперимент – одной группе пользователей отбирался добрый, смешной и веселый контент, а другой группе грустный или раздражающий. Настроение пользователей, их собственные посты и реакции менялись, согласно тому контенту, который они видели в ленте.

Психологические проблемы

Зависимость. После документального фильма от Netflix «The Social Dilemma» мир вздрогнул, ужаснулся и поверил, что соцсети негативно влияют на психику. Из-за алгоритмов соцсети вызывают зависимость. Механика простая: в соцсетях мы постоянно получаем небольшие дозы дофамина благодаря лайкам, интересному контенту и безбарьерному общению. Когда нам грустно или просто нечего делать, мы снова и снова заходим в соцсети, рассчитывая получить больше дофамина. Но наши глубинные человеческие потребности в одобрении и контакте в соцсетях не удовлетворяются. Именно это является причиной депрессий, чувства одиночества и общей неудовлетворённости жизнью.

Но есть но. Для людей, которые по какой-то причине не могут полноценно функционировать в социуме, соцсети являются единственной и самой удобной возможностью в этот социум влиться. Если мы не можем взаимодействовать физически, мы с лёгкостью выполняем недостаток контакта благодаря соцсетям. Например, в пандемию единственной возможностью общаться со своими родственниками и друзьями оказались соцсети. Может ли переизбыток интернет-общения вызвать зависимость? А что это значит «переизбыток»? Для всех ли он одинаковый? И как быть, если у человека нет возможности общаться иначе, не через интернет? Много вопросов и мало ответов.

Более правдоподобным кажется мнение, предполагающее, что на нас может оказывать негативное воздействие не то, сколько времени мы проводим в соцсетях, а какой контент мы потребляем. Существует несколько понятий, связанных с деструктивным контентом в интернете – кроличья нора, эхо-камера и токсичная позитивность. Сейчас подробно поговорим о каждом из них.

Источник: https://unsplash.com/

Кроличья нора. Алгоритмы работают на потребителя контента. Они стараются показывать посты, которые с большей вероятностью получит отклик. Самая простая механика для алгоритма – определить тему, которая интересна пользователю, и показывать посты об этом. Но может быть такой сценарий: например, в ТикТок просматривая позитивные ролики о том, как справиться с депрессией, человек проваливается в тему всё глубже… ему предлагаются нишевые видео о депрессивных состояниях и других психологических заболеваниях, мб какие-то странные не одобренные медициной методы лечения. А через какое-то время пользователь обнаруживает в ленте ролики о суициде. Это явление называется кроличья нора, когда алгоритмы начинают показывать пользователю сомнительный, плохо модерируемый контент. Как правило, это деструктивный контент, который действительно может негативно повлиять на психологическое состояние, особенно неустойчивого человека.

Эхо-камера. Этот термин описывает ситуацию, в которой мнение, взгляды и идеи пользователя подкрепляется внутри закрытой изолированной группы. Допустим, человек верит, что люди произошли от инопланетян. Он ищет информацию в интернете, подтверждающую его точку зрения, заходит на форумы, вступает в соответствующие группы в соцсетях, находит единомышленников. Со временем в информационном поле пользователя не остаётся контента, способного опровергнуть его точку зрения. Остаётся тот, который подкрепляет её. В соцсетях единомышленникам очень просто объединиться в закрытые группы, смотреть одни и те же источники и трактовать события согласно своим взглядам. Алгоритмы в какой-то степени помогают сформироваться этому информационному пузырю – показывает контент на основе интересов. Причём это информация тоже воспринимается как объективная. У человека есть ощущение, что он получает тот же контент, что и все остальные.

Ловушка токсичной позитивности. Об этом явлении начали говорить сравнительно недавно. Оно связано с невозможностью открыто говорить о своих негативных чувствах, потому что приходится поддерживать образ счастливого человека. Вынужденная позитивность называется токсичной. Вы должны притворяться оптимистом, игнорировать грусть, боль или просто плохое настроение, чтобы быть удобным и приятным человеком. Подавление негативных эмоций ни к чему хорошему не ведёт. Они все равно выходят: болезнями, паническими атаками, истериками, бессонницей, расстройствами пищевого поведения и так далее. Быть токсично-позитивным и позитивно смотреть на мир – это не одно и тоже. Психологи призывают стараться не унывать и находить даже в сложных ситуациях что-то хорошее, но при этом позволять себе грустить, давать право на злость, гнев и усталость.

Причём здесь алгоритмы? Проблема в том, что алгоритмы часто подсовывают нам позитивный и красивый контент. Само по себе это неплохо, но если такого контента становится слишком много, может показаться, что в вашем Инстаграме* исключительно эффективные специалисты, супер-мамочки, идеальные дети, активисты, богачи и люди с богатырским здоровьем. Это подталкивает пользователя с одной стороны чувствовать несоответствие миру успешных людей, а с другой страх показывать это несоответствие. И получается замкнутый круг: алгоритмы научают нас быть счастливыми в любой ситуации, потому что показывают нам контент перманентно счастливых людей. Мы производим позитивный контент, который попадает в ленту наших подписчиков… и так по кругу.

Заключение (или скучный текст про меру и критическое мышление)

Дело обычное: хорошее и плохое – это две стороны одной медали. Использовать соцсети нужно с умом – например, в качестве инструмента для общения и отдыха, а не как медицинский справочник или руководство по борьбе с депрессией. А если вы чувствуете дискомфорт с каким-то контентом, отпишитесь от него и побудьте так какое-то время. Если не помогло, дело не в нем и надо дальше искать. Я вот отписалась от всего, что меня бесит и мне стало получше.

И два слова о критическом мышлении. Я не знаю руководства, которое помогло бы его прокачать (или обрести). Но если у вас вообще есть запрос на это – уже хорошо. Мне очень помогла в этом смысле книга Канемана «Думай медленно, решай быстро». Она заезженная уже, но действительно хороша. Еще помогает пытаться понять другую точку зрения и смотреть разные источники информации – это против информационного пузыря. Вот короткий мультик про то, как применять критическое мышление (там есть субтитры).

5 приёмов, улучшающих критическое мышление — Саманта Агус

*принадлежат компании Meta, признанной экстремистской на территории РФ.

Маша Албегова
Редактор блога
0
Комментарии
Читать все 0 комментариев
null