{"id":14284,"url":"\/distributions\/14284\/click?bit=1&hash=82a231c769d1e10ea56c30ae286f090fbb4a445600cfa9e05037db7a74b1dda9","title":"\u041f\u043e\u043b\u0443\u0447\u0438\u0442\u044c \u0444\u0438\u043d\u0430\u043d\u0441\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0435 \u043d\u0430 \u0442\u0430\u043d\u0446\u044b \u0441 \u0441\u043e\u0431\u0430\u043a\u0430\u043c\u0438","buttonText":"","imageUuid":""}

Боты атакуют! Странная накрутка ПФ на сайты

Предисловие

Еще с марта 2020 года многие SEO-специалисты начали отмечать случаи массовых накруток поведенческих факторов на свои сайты.

С конца лета вебмастеры начали получать уведомления в панели Вебмастера о том, что на сайт были наложены санкции в связи с накруткой ПФ.

Пример сообщения в Вебмастер

Казалось бы, Яндекс взялся за дело – пошли «показательные порки». Но появились и опасения в том, что можно будет подвергнуться негативной накрутке на свой проект со стороны конкурента – от которой, по сути, трудно защититься.

Боты атакуют!

Расскажу про странную аномалию, которую заметил на одном из проектов. Начиная с ноября постепенно на сайт начали непонятно откуда залетать посетители. В начале декабря - явный тренд.

График из отчета "Источники, сводка" Яндекс Метрики

Далее все цифровые данные - усредненные.

1) Прямые заходы

  • Время на сайте – 24 секунды;

  • Глубина просмотра – 1,12;
  • Процент отказов - 13,8 %;

Казалось бы, это можно было бы объяснить какой-то наружной рекламой – но её просто не было.

2) Переходы из социальный сетей, а именно из Facebook, ВКонтакте, Instagram, Одноклассники, Twitter, Мой Мир, Livejournal:

  • Время на сайте – 19 секунд;
  • Глубина просмотра – 1,16;
  • Процент отказов - 12,2 %;
Переходы из социальных сетей

Опять же, в соц. сетях компании нет, переходы есть.

3) Переходы по ссылкам на сайтах:

  • Время на сайте – 32 секунды;

  • Глубина просмотра – 1,41;

  • Процент отказов - 11,3 %;

Набор сайтов абсолютно рандомный – естественно, никаких ссылок на проект на них не было.

Пример сайтов, с которых идут переходы.

4) Переходы из рекомендательных систем, а именно Яндекс Дзен:

  • Время на сайте – 18 секунд;

  • Глубина просмотра – 1,11;
  • Процент отказов - 13,8 %;

Что интересно, 95% переходов идут на одну страницу.

Диаграмма «Роботы» без явных «трендов»:

Диаграмма "Роботы" Яндекс Метрики

Не ожидая вменяемого нестандартного ответа, все же обратился к Платону Щукину по поводу этого наблюдения.

Получил стандартный ответ.

Ответ Платона Щукина

Последствия

Позиции, которые были до этого в ТОП-10 выпали из сотни.

С подобной ситуацией столкнулись и другие оптимизаторы – результат схожий, позиции ушли у кого-то к 50-60 местам, у кого-то за сотню. У малого числа ничего не изменилось...пока что.

Не исключаю того, что все это одно большое совпадение и в ранжировании поведение стороннего трафика учитывается в меньшей степени, если вообще учитывается.

Что делать?

Непонятно.

Казалось бы, если есть схожий IP у разных сессий, можно было бы заблокировать таких ботов. Проблема в том, что они все разные.

По гео-параметрам таким же образом не отфильтруешь – все из России, преимущественно из целевых регионов.

Возможно, получится через Cloudflare отсечь реферальный трафик.

Еще одна мысль – просто убрать счетчик с страницы на которой гонится трафик и понаблюдать, что будет.

По сути, все это предположения и вполне возможно – бездействие тоже выход.

Еще одно предположение - боты накручивают историю посещений, чтобы потом использоваться для накрутки ПФ уже для конкретных проектов.

А что бы сделали Вы?
Оборонял бы сайт от ботов, как Хельмову Падь от орков.
Танцевал с seo-бубном, заказал молитву.
Абсолютно ничего, Яндекс сам разберется.
Показать результаты
Переголосовать
Проголосовать

Были ли подобные случаи у Вас и какие действия в этой ситуации приемлемы?

Интересные статьи по схожей теме:

P.S. Еще замечен резкий рост внешних ссылок в вебмастере (не на всех проектах, на примерно в это время)

0
122 комментария
Написать комментарий...
Dmitry Kirsanov

Мне кажется нужно разделить на 2 проблемы:
1.Массовое нагуливание ботов по интернету 2. Сознательная накрутка ботами поведенческих, конкурентами.
Мои наблюдения по 1-му пункту.  Кто-то нагуливает ботов, число которых значительно растет из месяца в месяц. Тенденция наблюдается на многих проектах, которые имеют топовые конкурентные запросы и молодые сайты, которые имеют индексацию в поисковиках.
Боты пока просто гуляют по сайтам и соц.сетям, т.к. созданы для других целей(не завалить проект под фильтр). 
Если % от общего числа трафика превышает допустимый, то это может быть критично для проекта, но в основном число ботов в среднем не превышает критичной отметки.
Если всё же % ботов высокий, то можно бороться. Кто-то предлагает клин клином, т.е. покупать больший % ботов для увеличения поведенческих, мне этот вариант не нравиться и другим не советую. Через Cloudflare один из способов. 

Ответить
Развернуть ветку
Slava Chebnev

Добрый день. Вы написали, что один из способов Cloudflare. Но как? 
Включить Firewall на высокий уровень, подключить АРГО, но прямые заходы как были так и идут. Возможно как-то через Firewall rules задать инструкцию для капчи на прямой трафик, но честно говоря я не понимаю как...

Ответить
Развернуть ветку
Юрий SEO

правильно, удалось ли разобраться как это сделать? 

Ответить
Развернуть ветку
Игорь Дукаревич

Самый простой способ избавиться от этой проблемы, если у Вас есть CloudFlare:

1. Вычисляем страницы которые посещают боты
2. Заходим в CloudFlare в раздел Firewall, выбираем в вкладку FireWall Rules
3, Нажимаем синюю кнопку Create Firewall Rules
4. Выбираем условие я в "When incoming requests match…"
URL Full equals, в строке Value вводим URL страницы под атакой ботов
5. (Опционально) Выбираем Know Bots и убираем зеленую галочку
6. Выбарем правило "Then…" Challange (CAPTCHA)
7. Нажимаем Save, проверяем

Поздравляю, боты идут лесом!

Ответить
Развернуть ветку
119 комментариев
Раскрывать всегда