{"id":14276,"url":"\/distributions\/14276\/click?bit=1&hash=721b78297d313f451e61a17537482715c74771bae8c8ce438ed30c5ac3bb4196","title":"\u0418\u043d\u0432\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u043b\u044e\u0431\u043e\u0439 \u0442\u043e\u0432\u0430\u0440 \u0438\u043b\u0438 \u0443\u0441\u043b\u0443\u0433\u0443 \u0431\u0435\u0437 \u0431\u0438\u0440\u0436\u0438","buttonText":"","imageUuid":""}

Исследователи научились выявлять вредоносных ботов по особенностям их развития в соцсетях

Приложение, которое позволяет автоматически выявлять ботов, участвующих в кибератаках, разработали сотрудники подведомственного Минобрнауки России Санкт-Петербургского федерального исследовательского центра РАН (СПб ФИЦ РАН). В основе нового подхода лежит изучение открытых данных о развитии ботов по множеству параметров (метрик), анализ которых также позволяет определить тип бота. Созданное приложение может использоваться компаниями, которые используют соцсети в коммерческих целях, для выявления и противодействия целенаправленным вредоносным воздействиям.

Источник: ru.freepik.com

Сегодня боты являются важным инструментом для эффективного функционирования социальных сетей. Например, они вовлечены в работу чатов поддержки пользователей или распространения рекламы, где способны заменить целую команду из реальных людей, автоматически распространяя информацию.

Вместе с тем боты применяются и для неэтичной деятельности, например для накрутки рейтингов, написания ложных положительных отзывов о товарах и распространения дезинформации. При этом некоторые типы вредоносных ботов могут весьма успешно копировать поведение настоящих людей и составлять убедительные текстовые сообщения, сделанные при помощи нейронных сетей. Поэтому их крайне сложно распознать.

«Мы разработали приложение для выявления ботов, которые сегодня, в частности, активно используются в конкурентной и репутационной борьбе в цифровом пространстве. В основе разработки лежит нейросеть, учитывающая более тысячи метрик, которые отличают ботов от живых людей. Причем эти метрики связаны не столько с их текущей активностью, которую боты научились хорошо имитировать, сколько с тем, как они развиваются во времени», — рассказывает ведущий научный сотрудник лаборатории проблем компьютерной безопасности СПб ФИЦ РАН Андрей Чечулин.

Среди метрик, которые использовали ученые для анализа потенциального бота, — «возраст» аккаунта, описание профиля, оригинальность фото- и видеоконтента, характеристики и связи друзей с ним и друг с другом и многие другие.

«Например, аккаунт пользователя может существовать много лет, в то время как бот создается быстро и под конкретную задачу. Как правило, у бота нет оригинальных фотографий. Аккаунт человека последовательно развивается в соцсетях: учится, работает, женится, заводит друзей. Динамика развития этих характеристик у бота иная, а количество друзей и связи с ними носят более хаотичный порядок», — поясняет ученый.

Чтобы обучить нейросети распознавать ботов, ученые создали экспериментальные группы в соцсетях, в которые ввели специально подготовленных ботов различных типов. Их эффективность варьировалась по стоимости, особенностям функционирования, целям, скорости работы — от этих факторов зависела способность бота успешно подражать реальным пользователям. Собранные данные о характеристиках этих ботов были использованы для составления метрик, по которым обучалась нейросеть.

«Результаты эксперимента показали, что новый подход действительно работает и позволяет извлекать метрики, необходимые для более качественного выявления свойств целенаправленных воздействий в социальных сетях и анализа эволюции вредоносных ботов. В перспективе наше приложение может стать основой для перехода от простого обнаружения кибератаки с помощью ботов к более глубокому анализу атакующего и его возможностей», — рассказывает Андрей Чечулин.

Исследование поддержано грантом РНФ, его результаты опубликованы в одном из международных научных журналов.

0
Комментарии
-3 комментариев
Раскрывать всегда