Бесконтрольный рост прямых роботных заходов портит качество трафика, как мы отметили выше. Средняя длительность сеанса и среднее количество просмотренных страниц уменьшаются, а показатель отказов, наоборот, растет. Поведенческий фактор достаточно важен для Яндекс, и его прокачка белыми методами даёт положительные результаты, но такие роботы могут его существенно подпортить.
Какие инструменты наиболее эффективны для выявления роботизированного трафика?
В Яндекс.Метрике есть отчеты по роботам и нагрузке сайта, которые можно наложить на отчеты по посещаемости и оценить роботное влияние. Также рекомендуем обращать внимание на качество переходов. В частности, на длительность сеанса и показатель отказов – роботы заходят на сайт и сразу после регистрации посещения с него уходят.
Могли бы вы подробнее объяснить, какие последствия может иметь нефильтрованный роботный трафик для аналитики сайта?
Отсутствие фильтрации роботного трафика может искажать данные аналитики, приводя к ошибочным выводам о поведении пользователей и эффективности продвижения. Это также может привести к неточным прогнозам и негативу со стороны клиента, когда прогноз не сбудется.
В статье упоминается использование CAPTCHA, но не могли бы вы рассказать о влиянии на пользовательский опыт?
Использование CAPTCHA может негативно повлиять на поведение пользователей, если задача слишком сложная, многоуровневая (всё же, пользователи пришли к нам не ребусы разгадывать 😊) или появляется не при заходе за сайт, а в случайный момент. Мы рекомендуем использовать простые капчи или reCAPCHA от Google.
ipv4 намного дороже ipv6.
Блокировать по ip нет смысла. Смена ip идёт каждые несколько минут, в средне - от 2 до 5. Банить же целыми подсетями - это даже не выстрел в ногу.
Капчу боты обходят, там подключены сервисы антикапчи.
Вообще говоря, нету сейчас полноценной защиты. Можно лишь максимально усложнить ботоводу жизнь, и надеяться, что он психанет и сайт из списка удалит.