Бесконтрольный рост прямых роботных заходов портит качество трафика, как мы отметили выше. Средняя длительность сеанса и среднее количество просмотренных страниц уменьшаются, а показатель отказов, наоборот, растет. Поведенческий фактор достаточно важен для Яндекс, и его прокачка белыми методами даёт положительные результаты, но такие роботы могут его существенно подпортить.
ipv4 намного дороже ipv6.
Блокировать по ip нет смысла. Смена ip идёт каждые несколько минут, в средне - от 2 до 5. Банить же целыми подсетями - это даже не выстрел в ногу.
Капчу боты обходят, там подключены сервисы антикапчи.
Вообще говоря, нету сейчас полноценной защиты. Можно лишь максимально усложнить ботоводу жизнь, и надеяться, что он психанет и сайт из списка удалит.
ipv4 намного дороже ipv6.
Перечитали. Поняли, что формулировкой запутали. Не сами адреса на IPv4 дешевле, а магистральное оборудование v4 маршрутизации дешевле. Потому их чаще для спама используют.
Блокировать по ip нет смысла. Смена ip идёт каждые несколько минут, в средне - от 2 до 5. Банить же целыми подсетями - это даже не выстрел в ногу.
Тут в большей степени согласны. Банили очевидно спамными сетями после вычислениях их с помощью форумов и масками. Помогло немного, временно, оставили у себя как кейс на благо будущих поколений.
Капчу боты обходят, там подключены сервисы антикапчи.
Зависит от обученности, пожалуй. Нам на нескольких сайтах помогла, но там и роботов было не критично много.
Вообще говоря, нету сейчас полноценной защиты. Можно лишь максимально усложнить ботоводу жизнь, и надеяться, что он психанет и сайт из списка удалит.
Точно! Ждать, пока нечестный игрок выйдет из себя можно, пока параллельно тестируешь разные варианты блокировки. Битва терпеливых интеллектуалов может затянуться, а сайт страдает здесь и сейчас.
Вы упомянули блокировку IP адресов; как избежать случайной блокировки настоящих пользователей?
Рекомендуем использовать гибкие настройки блокировки, тщательно отслеживать не только количественные, но и качественные показатели трафика, а также проверять сеть блокируемых IP – в интернете регулярно появляется информация о сетях и списках адресов, которые активно используют для бот-атак.
Какие инструменты наиболее эффективны для выявления роботизированного трафика?
В Яндекс.Метрике есть отчеты по роботам и нагрузке сайта, которые можно наложить на отчеты по посещаемости и оценить роботное влияние. Также рекомендуем обращать внимание на качество переходов. В частности, на длительность сеанса и показатель отказов – роботы заходят на сайт и сразу после регистрации посещения с него уходят.
Могли бы вы подробнее объяснить, какие последствия может иметь нефильтрованный роботный трафик для аналитики сайта?