{"id":14275,"url":"\/distributions\/14275\/click?bit=1&hash=bccbaeb320d3784aa2d1badbee38ca8d11406e8938daaca7e74be177682eb28b","title":"\u041d\u0430 \u0447\u0451\u043c \u0437\u0430\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u044e\u0442 \u043f\u0440\u043e\u0444\u0435\u0441\u0441\u0438\u043e\u043d\u0430\u043b\u044c\u043d\u044b\u0435 \u043f\u0440\u043e\u0434\u0430\u0432\u0446\u044b \u0430\u0432\u0442\u043e?","buttonText":"\u0423\u0437\u043d\u0430\u0442\u044c","imageUuid":"f72066c6-8459-501b-aea6-770cd3ac60a6"}

Абьюз в спортивных онлайн-сообществах – как решать проблему?

Рассказываем, как работает модерация в онлайн-сообществах и о чем говорят последние исследования токсичного поведения спортивных фанатов.

Это первый материал из специальной серии, посвященной тому, как создать безопасную среду для онлайн-общения.

О чем говорят отчеты?

С 2020 года международные ассоциации, профсоюзы и независимые аналитики обратили внимание, какому количеству нападок подвергаются спортсмены во время каждого турнира. Это осознание вылилось в массу исследований абьюзивного поведения в спортивных онлайн-сообществах. Собственные исследования представили FIFA и FIFPRO, the Conversation, World Athletics, Australian sporting organisations, eSafety, NBPA и многие другие.

Исследования проводились среди разных видов спорта в разных странах, нюансы отчетов отличаются, но суть одна: основы оскорбительного поведения — гомофобия, расизм, сексизм, эблеизм (недоверие к людям с ограниченными возможностями), исламофобия, трансфобия и угрозы. Они перечислены в порядке по популярности от большей к меньшей, если смотреть на ситуацию в целом. Но в отдельных лигах на первый план выходят разные фобии и формы дискриминации.

В последнее время мы наблюдаем, как спортсменки, принадлежащие к разным культурным группам, все чаще становятся объектами оскорблений, ненависти, женоненавистничества и расизма в интернете

Джули Инмэн Грант, уполномоченная по безопасности в интернете, Австралия

Так, финал Евро 2020, закончившийся поражением сборной Англии и победой Италии, подсветил неприемлемый уровень расизма среди фанатов европейских и английской лиг. Финал Африканского кубка AFCOM показал гомофобию болельщиков. Женские соревнования традиционно сопровождает сексизм и мизогиния. Летняя Олимпиада в Токио, которая была первой гендерно равномерной в истории (женщин и мужчин атлетов в ней было практически 50 на 50), показала при этом высочайший уровень сексизма. По результатам исследований, 87 % оскорбительных онлайн-сообщений и комментариев пришлись на долю спортсменок.

Дело в соцсетях?

Токсичность порождает токсичность: сначала агрессия оказывается направлена на атлетов, затем переходит на других болельщиков, на тренерский штаб, затем на родных и близких спортсменов. Оскорбительные комментарии и сообщения не имеют срока годности — так как остаются размещены в открытых аккаунтах пользователей Твиттера, инстаграма* и других соцсетей, а значит, продолжают получать просмотры и расходиться через репосты.

Если вы хотя бы раз заходили на страницы и аккаунты спортивных клубов или отдельных атлетов, особенно в момент матча или после проигрыша, вы точно видели транслирующие ненависть комментарии. Также вы могли подмечать токсичные треды в Твиттере, которые набирали популярность.

Если вы не пользуетесь соцсетями, то можете знать из сми, что спортсмены и спортивные организации не раз бойкотировали соцсети. Так, в апреле 2021 года Английская Премьер-лига, English Football League и Women's Super League объявили 4-дневный бойкот соцсетям из-за настойчивого игнорирования соцсетями проблемы абьюза. А спустя два месяца состоялся финал Евро, где именно английская сборная и столкнулась с волной онлайн-ненависти, что убедило FIFA начать действовать.

Реальные действия

Многие видят причину токсичного поведения в соцсетях в анонимности на платформах, но все не так просто. Соцсети — не пространство для полной анонимности, и любой автор оскорбительного комментария и особенно поста оказывается на виду. К примеру, после волн буллинга, которые устроили футбольные фанаты на финале Евро-2020, многих из онлайн-абьюзеров вызвали в полицию.

Гарет Саутгейт и Букайо Сака после неудачного пенальти на финале Евро-2020 ©AFP

Твиттер и Инстаграм* остаются средами, где оскорбления порождают оскорбления, несмотря на то, что личность авторов токсичных веток известна или легко раскрывается. Спусковым крючком для онлайн-травли может стать поражение команды, ошибка игрока во время матча или даже внешний вид атлета на фото в личном аккаунте. А когда причиной может стать что угодно, это значит, что как таковых причин просто нет.

Как результат исследований, FIFA запустили систему выявления оскорбительных комментариев в соцсетях, которая включает автоматизированный поиск токсичных постов и их ручную проверку. Как подчеркивает компания Threat Matrix, которая работает с FIFA и NBPA, двухуровневая проверка позволит справляться с лингвистически сложными случаями. В качестве примера FIFA приводят итальянского футболиста с никнеймом «Горилла». В его случае эмодзи гориллы помечаются системой как абсолютно допустимые, в то же время в случае расистских комментариев они оказываются маркером токсичности.

Подводные камни

Конечно, это не первая попытка справиться с токсичностью в онлайн-среде. Например, в том же 2021 году на конференции о человеческом факторе в мире компьютерным систем выступила профессор философии Пенсильванского университета Ксенинг Джи и рассказала на примере League of Legend о том, как пользователи используют инструменты по борьбе с буллингом в личных целях. Например, ставят флажки для разметки абьюзеров, чтобы избавиться от игрового соперника.

Сифан Хассан из сборной Нидерландов после победы в финальном забеге на 10 000 метров в рамках Олимпийских игр в Токио 20202 (Фото: Cameron Spencer / Getty Images via CFP)

Нечестность некоторых пользователей — не единственный подводный камень. К примеру, сложным случаем стала недавняя Олимпиада в Пекине, где наряду все с теми же абьюзивными комментариями в сторону атлетов к интернет-пользователям применялась реальная государственная цензура. Так, многие атлеты из Европы сообщили, что не готовы высказывать публично о негативных сторонах организации Олимпиады, пока не покинут страну. Множество постов цензоры удаляли сразу после публикации. В целом, система борьбы с неугодными комментариями в Китае направлена на сообщения, выражающие антиправительственную точку зрения, а не борьбу с токсичностью.

Как не пуститься из крайности в крайность? Как создать доверительную онлайн-среду для комфортного общения, не допуская абьюз, но помня о принципах свободы слова?

Наш опыт

Нам как компании, которая предоставляет возможности общаться и создавать онлайн-сообщества вокруг контента, близок подход FIFA. Но Matrix Threat, компания-партнер спортивных профсоюзов, вынуждена бороться с ветряными мельницами — с глобальными соцсетями, где свои правила пользования, а модерация автоматизирована и не умеет подстраиваться под разные ситуации и события. Нам проще — ведь мы сами создаем ту среду, где пользователи будут общаться, причем создаем прицельно под каждое событие. Это значит, что на всех уровнях модерации мы знаем, на что обратить внимание.

Мы создаем онлайн-комнаты, или чаты, для обсуждения спортивных событий. Это может быть целый турнир или отдельный матч. Онлайн-чат появляется перед событием и исчезает по его окончании. Такой подход предотвращает одну из проблем Твиттера: треды не удаляются по истечению времени, чаты к событию — да.

Итак, перед тем как начать поддержку, мы анализируем похожие события и сообщества вокруг них, чтобы понять, что пользователи хотят обсуждать и как много негатива ожидать в чате. Затем настраиваем автомодерацию — корректируем черные и белые списки слов и фраз.

Но еще чаты и онлайн-комнаты — место, где нужно общаться и делиться эмоциями. Эмоции бывают негативными, и если они не направлены против атлетов или окружающих, то почему бы пользователю не поделиться огорчением от проигрыша?

Итак, когда подготовительная работа проделана, приходит время события. Пока оно идет, онлайн-чаты модерируются на трех уровнях: автоматическая премодерация, ручная модерация специалистами и пользовательская модерация.

Автоматическую модерацию обеспечивают не только заданные заранее черные и белые списки. В процессе события модераторы предоставляют ИИ новую информацию, которая позволяет ему обучиться и подстроиться под конкретное событие, если. То есть могут добавить вариант токсичного сообщения или, наоборот, удалить что-то лишнее, что пользователи используют в обычном разговоре.

Второй уровень — живая модерация, при которой специалисты читают каждое сообщение на соответствие правилам чата. Опять же, живая модерация позволяет как не пропустить абьюз, так и не скрывать автоматически то, что таковым не является — то, как пользователи сокрушаются о пропущенном голе или жалеют о своей ставке на матч.

Сами пользователи тоже могут скрыть конкретное сообщение или все комментарии токсичного участника и больше не видеть их в чате. Это не ведет к непременному бану человека, который их оставил, зато делает среду более комфортной.

Получается три уровня, в каждом из которых важную роль играет живой человек, который при подстраховке ИИ оперативно оценивает абьюзивность каждого сообщения, а значит, может повлиять на ситуацию в реальном времени.

Если вы хотите узнать больше о социальных инструментах, которые мы интегрируем на платформы, заходите на наш сайт или смело пишите нам на [email protected].

В следующем текстах расскажем, какие методы лексического анализа применяются в AI-модерации, как правильно оценить семантику сообщений, какие токсичные темы мы выделяем в онлайн-чатах, как они различаются в зависимости от тематики и как быстро сразу обнаружить абьюзера.

*признан экстремистским и запрещен в России

0
3 комментария
Anna Karina

❤️

Ответить
Развернуть ветку
Слегка Придурковатый

Вы так говорите гомофобия, расизм, сексизм, эблеизм, исламофобия, трансфобия и угрозы, как будто это что-то плохое.

Ответить
Развернуть ветку
Александра Борош

ну не то чтобы плохое, но что то отрицательное в этом есть))

Ответить
Развернуть ветку
0 комментариев
Раскрывать всегда