Социальные войны. Эпизод II: атака алгоритмических фильтров
Сообщение о том, что новый социальный сервис Яндекса автоматически формирует ленту новостей и подбирает «друзей» по принципу подобия, вызвало у меня резкое рефлективное движение рук в сторону лица.
Виной тому то, что в университете мне довелось прослушать курс по правовому регулированию автономных систем. Одной из ключевых идей, которые я для себя вынес, было понимание, что гипотезы технологических продуктов должны подвергаться серьёзному анализу в междисциплинарных командах, где представлены не только технари и коммерсанты, но и гуманитарии. Знакомые с проблематикой этических норм в области технологий.
Если бы ко мне пришли посоветоваться по продуктовой идее социальной сети, предполагающей в качестве основной особенности автоматическую фильтрацию контента по принципу подобия, я бы сказал, что это, возможно, не лучшая услуга, которую можно оказать потребителям и обществу в целом.
Мы и так от природы склонны уделять преувеличенное внимание информации, которая подтверждает наши взгляды, и игнорировать прочее (confirmation bias). Автоматическая фильтрация контента по принципу подобия усугубляет проблему: на Фейсбуке мы видим в первую очередь посты, подтверждающие наше мнение (возможно, ошибочное), в Инстаграме — рекламу продуктов, соответствующих нашему образу жизни (возможно, нездоровому). Амазон по тематике вакцинаций предлагает автосписок, начинающийся с антипрививочных опусов (возможно, безумных).
В результате мы наблюдаем мир не многообразным, а ограниченным - уже не только нашими встроенными фильтрами, но ещё и фильтрами алгоритмическими. И если навыки критического мышления могут помочь хотя бы отчасти преодолеть первые, то от вторых часто не убежишь.
При этом замыкание в «информационных пузырях» (filter bubble) пагубно как для каждого индивида, так и для общества в целом. Ведь в результате оно всё больше поляризуется по политическим и экономическим взглядам, по идеологии, фетишам, сакральным ценностям. Либералы общаются преимущественно с либералами, консерваторы преимущественно с консерваторами, радикалы — с радикалами, верующие в гомеопатию и теории заговора маринуются в своих сообществах. У каждой группы формируется внутренний язык, образ «своего» и «чужого», нерациональный взгляд на мир (mob mentality), а здоровой критики от людей с иной точкой зрения им не видно и не слышно. В конечном счёте, такими разрозненными группами становится легче управлять, манипулировать.
Таким образом создание информационных социальных сервисов с алгоритмической фильтрацией контента по принципу подобия потенциально может быть вредным, так как может усилить поляризацию общества и усугубить уже ведущиеся «социальные войны».
В таком случае стоит ли осознанно помещать людей в ещё один «информационный пузырь»? Может быть, лучше подумать и пересмотреть продуктовую гипотезу? Например, что насчёт создания соцсети на принципах контекстуальной приватности и уважения автономии пользователя, с удобным структурированием и поиском размещённых материалов?
В итоге, любые продуктовые гипотезы стоит на самых ранних стадиях серьёзно дебатировать (и при необходимости корректировать) внутри продуктовой команды с широким кругом участников. Обязательно включающим людей, сведущих в этике и помогающих принимать решения с опорой на научные знания в широком смысле.
Для технологических компаний, на мой взгляд, это не просто опция. Это нечто обязательное, элемент социальной ответственности, учитывая, как технологии влияют на общество.
Но они не пришли... :)
и это хорошо )
цукерберг не позвонит. . .
Комментарий удален модератором
Почему эхочемберы позиционируются сейчас как что-то дурное?
Ведь альтернатива - это централизованные трансляторы информации, который уязвимее для злонамеренного взлома.