{"id":14275,"url":"\/distributions\/14275\/click?bit=1&hash=bccbaeb320d3784aa2d1badbee38ca8d11406e8938daaca7e74be177682eb28b","title":"\u041d\u0430 \u0447\u0451\u043c \u0437\u0430\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u044e\u0442 \u043f\u0440\u043e\u0444\u0435\u0441\u0441\u0438\u043e\u043d\u0430\u043b\u044c\u043d\u044b\u0435 \u043f\u0440\u043e\u0434\u0430\u0432\u0446\u044b \u0430\u0432\u0442\u043e?","buttonText":"\u0423\u0437\u043d\u0430\u0442\u044c","imageUuid":"f72066c6-8459-501b-aea6-770cd3ac60a6"}

Боты атакуют! Странная накрутка ПФ на сайты

Предисловие

Еще с марта 2020 года многие SEO-специалисты начали отмечать случаи массовых накруток поведенческих факторов на свои сайты.

С конца лета вебмастеры начали получать уведомления в панели Вебмастера о том, что на сайт были наложены санкции в связи с накруткой ПФ.

Пример сообщения в Вебмастер

Казалось бы, Яндекс взялся за дело – пошли «показательные порки». Но появились и опасения в том, что можно будет подвергнуться негативной накрутке на свой проект со стороны конкурента – от которой, по сути, трудно защититься.

Боты атакуют!

Расскажу про странную аномалию, которую заметил на одном из проектов. Начиная с ноября постепенно на сайт начали непонятно откуда залетать посетители. В начале декабря - явный тренд.

График из отчета "Источники, сводка" Яндекс Метрики

Далее все цифровые данные - усредненные.

1) Прямые заходы

  • Время на сайте – 24 секунды;

  • Глубина просмотра – 1,12;
  • Процент отказов - 13,8 %;

Казалось бы, это можно было бы объяснить какой-то наружной рекламой – но её просто не было.

2) Переходы из социальный сетей, а именно из Facebook, ВКонтакте, Instagram, Одноклассники, Twitter, Мой Мир, Livejournal:

  • Время на сайте – 19 секунд;
  • Глубина просмотра – 1,16;
  • Процент отказов - 12,2 %;
Переходы из социальных сетей

Опять же, в соц. сетях компании нет, переходы есть.

3) Переходы по ссылкам на сайтах:

  • Время на сайте – 32 секунды;

  • Глубина просмотра – 1,41;

  • Процент отказов - 11,3 %;

Набор сайтов абсолютно рандомный – естественно, никаких ссылок на проект на них не было.

Пример сайтов, с которых идут переходы.

4) Переходы из рекомендательных систем, а именно Яндекс Дзен:

  • Время на сайте – 18 секунд;

  • Глубина просмотра – 1,11;
  • Процент отказов - 13,8 %;

Что интересно, 95% переходов идут на одну страницу.

Диаграмма «Роботы» без явных «трендов»:

Диаграмма "Роботы" Яндекс Метрики

Не ожидая вменяемого нестандартного ответа, все же обратился к Платону Щукину по поводу этого наблюдения.

Получил стандартный ответ.

Ответ Платона Щукина

Последствия

Позиции, которые были до этого в ТОП-10 выпали из сотни.

С подобной ситуацией столкнулись и другие оптимизаторы – результат схожий, позиции ушли у кого-то к 50-60 местам, у кого-то за сотню. У малого числа ничего не изменилось...пока что.

Не исключаю того, что все это одно большое совпадение и в ранжировании поведение стороннего трафика учитывается в меньшей степени, если вообще учитывается.

Что делать?

Непонятно.

Казалось бы, если есть схожий IP у разных сессий, можно было бы заблокировать таких ботов. Проблема в том, что они все разные.

По гео-параметрам таким же образом не отфильтруешь – все из России, преимущественно из целевых регионов.

Возможно, получится через Cloudflare отсечь реферальный трафик.

Еще одна мысль – просто убрать счетчик с страницы на которой гонится трафик и понаблюдать, что будет.

По сути, все это предположения и вполне возможно – бездействие тоже выход.

Еще одно предположение - боты накручивают историю посещений, чтобы потом использоваться для накрутки ПФ уже для конкретных проектов.

А что бы сделали Вы?
Оборонял бы сайт от ботов, как Хельмову Падь от орков.
Танцевал с seo-бубном, заказал молитву.
Абсолютно ничего, Яндекс сам разберется.
Показать результаты
Переголосовать
Проголосовать

Были ли подобные случаи у Вас и какие действия в этой ситуации приемлемы?

Интересные статьи по схожей теме:

P.S. Еще замечен резкий рост внешних ссылок в вебмастере (не на всех проектах, на примерно в это время)

0
122 комментария
Написать комментарий...
Dmitry Kirsanov

Мне кажется нужно разделить на 2 проблемы:
1.Массовое нагуливание ботов по интернету 2. Сознательная накрутка ботами поведенческих, конкурентами.
Мои наблюдения по 1-му пункту.  Кто-то нагуливает ботов, число которых значительно растет из месяца в месяц. Тенденция наблюдается на многих проектах, которые имеют топовые конкурентные запросы и молодые сайты, которые имеют индексацию в поисковиках.
Боты пока просто гуляют по сайтам и соц.сетям, т.к. созданы для других целей(не завалить проект под фильтр). 
Если % от общего числа трафика превышает допустимый, то это может быть критично для проекта, но в основном число ботов в среднем не превышает критичной отметки.
Если всё же % ботов высокий, то можно бороться. Кто-то предлагает клин клином, т.е. покупать больший % ботов для увеличения поведенческих, мне этот вариант не нравиться и другим не советую. Через Cloudflare один из способов. 

Ответить
Развернуть ветку
Konstantin Shugar
Автор

По первому пункту - молодые сайты, на которых априори не может быть хорошего поискового трафика получают, допустим, 90% посещение ботами - а значит получают изначально плохую историю. Звучит практически как приговор.

Ответить
Развернуть ветку
119 комментариев
Раскрывать всегда