{"id":14289,"url":"\/distributions\/14289\/click?bit=1&hash=892464fe46102746d8d05914a41d0a54b0756f476a912469a2c12e8168d8a933","title":"\u041e\u0434\u0438\u043d \u0438\u043d\u0441\u0442\u0440\u0443\u043c\u0435\u043d\u0442 \u0443\u0432\u0435\u043b\u0438\u0447\u0438\u043b \u043f\u0440\u043e\u0434\u0430\u0436\u0438 \u043d\u0430 5%, \u0430 \u0441\u0440\u0435\u0434\u043d\u0438\u0439 \u0447\u0435\u043a \u2014 \u043d\u0430 20%","buttonText":"","imageUuid":""}

Как защитить сайт от ботов?

С развитием технологий, растет и количество угроз, которые могут нанести вред любому ресурсу. Владельцы сайтов жалуются на участившиеся атаки ботов. Как же с этим бороться? Есть ли проверенные методы защиты сайта от ботов и DDoS-атак? Предлагаю поговорить о способах обнаружения и блокировки вредоносного трафика.

Что такое боты?

Чем активнее используется интернет для продвижения бизнеса, тем больше сил тратят компании на преодоление препятствий в конкурентной борьбе. Это особенно заметно в таких высококонкурентных нишах, как: продажа недвижимости, установка окон ПВХ, строительство, медицинские услуги и т.п. В этом соперничестве приветствуются любые методы, главное выделится на общем фоне.

БОТ – это программа, которая имитирует поведение живого человека на сайте. Свою задачу она выполняет четко по прописанному алгоритму с определенной скоростью, выверенной точностью. Ботов условно делят на «безопасные» и «опасные» в зависимости от их задач.

Безопасный («хороший») бот – не может причинить вред сайту или мессенджеру. К таким относятся поисковые роботы Яндекса и Google. Они подчиняются директиве robots.txt, используются для сканирования веб-страниц, их индексации.

Опасные боты могут оказывать воздействие на веб-браузер (например, Chrome, Internet Explorer), на трафик льющийся с сайта. Они искажают данные аналитики Гугл и Яндекс. Их уровень защиты достаточно высок, что затрудняет обнаружение. Сегодня разработана масса программ, которые облегчают жизнь, однако существуют и «некорректные». Они вредят ресурсам, доставляют массу проблем, например:

  • распространяют вредоносное программное обеспечение;
  • выполняют парсинг страниц;
  • искусственно завышают трафика ресурса;
  • клик-боты имитируют поведение посетителей;
  • приводят к искажению статистики;
  • собирают контакты, адресов электронной почты (e-mail) и пр.

Специалисты выделяют еще условно безопасную категорию, к которой относятся:

  • Боты оценки качества сайта. Они тестируют работоспособность страниц, выявляют битые ссылки, тяжелые изображения, низкую скорость загрузки.
  • SEO-боты – инструменты аналитики сайтов (например роботы платформ Ahrefs, Semrush, Serpstat и др.). Они нужны для сбора аналитической информации, формирования рейтинговых графиков, выстраивания стратегий продвижения.

Безвредность этих программ многими воспринимается скептически, так как они увеличивают нагрузку на сервер. Владельцев сайтов это не радует, они пытаются выстраивать систему защиты от таких бесцеремонных вторжений.

В чем опасность ботов?

  • Автоматическое распространение спама или других нежелательных сообщений.

Спамеры для рассылки писем, рекламы взламывают сайт. Поисковые системы регулярно сталкиваются с активным распространением спама. Для защиты пользователей они пессимизируют вредоносный ресурс, удаляют его из результатов поиска.

  • Сбор личных данных без ведома пользователей.

Незащищенный веб-ресурс может подвергаться атаке ботов для незаконного сбора информации о пользователях сайта. Эта процедура признана незаконной. Самый распространенный метод сбора персональных данных – это cookie. Программа собирает фрагменты текста, в которых отображены данные пользователя. Справится с кражей персональных данных поможет частая смена паролей, отказ от пересылки изображений личных документов или автоматического приема cookie-файлов, подключение двухфакторной аутентификации и т.п.

  • Накрутка поведенческих факторов.

Каждый SEO-специалист знаком с понятием «поведенческий фактор». Именно этот критерий считается ключевым для ранжирования сайта в поисковой выдаче Яндекса и Google. Поисковики определяют полезность страниц, выносят вердикт о расположении их в поисковой выдаче.

Обращаясь с запросом к поисковику, пользователь выбирает ту страницу, которая наиболее точно отвечает его потребностям. В итоге часто посещаемый сайт получает дополнительные баллы в ранжировании.

Эта особенность Яндекса легла в основу искусственного вывода сайта в топ. Ее назвали «накрутка поведенческих факторов». Схема работы очень проста. Сайт, который необходимо продвинуть, подвергается нашествию ботов, которые имитируют поведение человека. Как простой пользователь они переходят от раздела к разделу, «изучают» статьи, фото, скролят страницы. Такое внимательное отношение к сайту алгоритмы Яндекса воспринимают как поведение реальных пользователей, и ресурс поднимается в поисковой выдаче.

Яндекс регулярно совершенствует, обновляет, создает новые алгоритмы для борьбы с ботами. Но попытки обмануть систему продолжают совершенствоваться, ищутся любые лазейки, чтобы вывести страницы в топ. Каждый новый робот умнее предыдущего. В данный момент Яндекс выбрал стратегию борьбы с искусственной накруткой поведенческих факторов, которая заключается в понижении позиций, если на нем наблюдается подозрительная высокая активность.

В гонке за первые места топа усовершенствованные алгоритмы Яндекса используются против конкурентов. Схема проста: чтобы понизить сайт конкурента в топ выдачи, на него нагоняются боты, которые несуразно изображают действия пользователей. Алгоритм Яндекса считывает эту подозрительную активность и применяет санкции: понижает в поисковой выдаче или вовсе исключает из нее. Эта стратегия называется «нашествие ботов».

  • «Нагуливание» новых ботов

Иногда «нашествию ботов» подвергаются рандомные страницы. Это происходит по причине «прокачки» новых ботов. То есть, новая программа собирает информацию, учится взаимодействовать, прятаться, как говорится, ее «нагуливают». В конце концов она будет использоваться по прямому назначению – для накрутки поведенческих факторов. К сожалению, сайт, который стал тренировочной площадкой для роботов подвергнется пессимизации в Яндексе, его позиции упадут.

Как обнаружить атаку ботов?

Каждый сайт – это сложный организм, его жизнедеятельность может быть подвергнута различным угрозам. Он может упасть от DDos-атаки, его работу могут нарушить вирусные программы или поисковые алгоритмы сбросят его позиции в топе. Чтобы избежать подобных ситуаций, необходимо регулярно проводить технический аудит, обращать внимание на такие моменты:

  • быстрый и хаотичный переход пользователей по ссылкам;
  • просмотры страниц, исключенных из индексации;
  • повышение или понижение трафика;
  • увеличение количества отказов;
  • увеличение трафик при сохранении прежней конверсии;
  • нетипично высокий прирост трафика по нескольким страницам;
  • одинаковый рост трафика на определенном количестве страниц;
  • рост трафика из определенного региона или с определенных устройств;
  • рост показателей отказов и т.д.

Любая, выбивающаяся из обычного ритма, активность требует особого внимания, дополнительного мониторинга. Это может грозить вашему веб-ресурсу санкциями, потерей лидирующих позиций. Если роботность превышает 25%, следует принимать срочные меры.

Как защитить сайт от ботов?

Защитить ресурс на 100% от атак невозможно. Но подготовиться к ее отражению необходимо, ведь реанимировать веб-ресурс сложнее, чем организовать его защиту. Для этих целей используют несколько способов защиты:

  • блокировка IP-адресов;
  • встроенная защита хостинга;
  • специальные сервисы защиты от ботов.

CAPTCHA

CAPTCHA (Completely Automated Public Turing Test to Tell Computers and Humans Apart) – это популярный компьютерный тест для определения человек или робот является пользователем. Чаще всего для тестирования используют искаженный текст, но может быть и простое задание, которое под силу только человеку (например, отметить определенные изображения или их части). Наиболее эффективно CAPTCHA защищает веб-сайт от спама.

Блокировка IP-адресов

Возможно, не самый эффективный, но самый распространенный способ защиты. Чтобы его активировать, необходимо написать правила блокировки или блокировать определенные адреса в «Менеджере IP-адресов». Однако боты легко подменяют IP-адрес с помощью мобильных прокси, а если их блокируют, меняют один адрес на другой.

Конечно, чтобы предотвратить проникновение ботов, можно заблокировать подсети в файле robots.txt или .htaccess, но таким образом мы можем закрыть доступ настоящим пользователям.

Блокировка IP-адресов не рассчитана на перспективу, используется лишь как временное средство. При ее использовании, сайт становится недоступным для ботов и реальных посетителей.

Встроенные средства защиты от DDoS-атак

Хостинг-провайдеры для защиты от DDoS-атак и нашествия вредоносных ботов применяют специально разработанные встроенные средства защиты. Они легко различают «плохих» ботов от «хороших», блокируют повторяющиеся запросы, фильтруют IP-адреса и на первом же запросе определяют наличие угрозы.

Популярные хостинги активно предлагают защиту от DDoS-атак своим клиентам, размещая информацию о них в базовых тарифах. Они выглядят как отдельный IP-адрес, включаясь в работу, мгновенно реагируют на любую подозрительную активность, блокируют ее, пропускают только проверенный трафик. Усилить защиту можно установкой дополнительного модуля, который предлагают хостинги.

Установка системы безопасности сайта обеспечивает ему надежную защиту от ботов по минимальной цене.

На рынке представлен широкий выбор программ для защиты от ботов, например; CloudFlare; BotFAQtor и пр. Одна из самых популярных защит – это AntiBot.

AntiBot

Программа «Антибот» – это многофункциональный инструмент защиты сайтов, онлайн-сервисов от спам-рассылок, автоматического голосования, массовой регистрации учетных записей, прочих автоматических действий. Она анализирует действия пользователя, автоматически блокирует действия, интерпретируемые как попытка автоматизированного доступа.

Основные функции программы AntiBot:

  1. Обнаружение ботов.
  2. Защита от регистрации, авторизации.
  3. Защита от спама, автоматических рассылок.
  4. Защита от автоматических голосований.
  5. Защита от DDoS-атак.

BotFAQtor

Сервис блокирует подозрительные посещения по типам визитов или источникам трафика. Установка защиты позволяет не допустить скликивания рекламных баннеров.

У BotFAQtor есть отдельный плагин для сайтов на WordPress, который устанавливается в несколько кликов. Один из плюсов сервиса – незаметный фильтр для ботов незаметен настоящему пользователю. Однако сервис не лишен недостатков. Баннеры загружаются медленнее, если активирована функция защиты от скликивания.

CloudFlare

Сервис популярен и считается достаточно эффективным. CloudFlare кэширует статику у себя на сервере, поэтому нагрузка на сервер владельца сайта снижается. При правильной настройке может защитить практически от всех ботов, которые не поддерживает HTTP2. К этим категориям можно отнести чекеров уязвимости, парсеров контента, часть спамеров. При необходимости CloudFlare можно использовать в качестве защиты от DDOS-атак. Сервис не блокировал работу в России, но прямые оплаты от российских пользователей не принимает.

Не стесняйтесь обращаться за консультациями в службу поддержки Яндекса или хостинг, если столкнетесь с какой-то непонятной ситуацией. Сотрудничайте с надежными SEO-специалистами. Регулярно мониторьте сайт на наличие ботов и DDoS-атак, обращайте внимание на любые необычные действия пользователей или нетипичное поведение трафика. Так вы не только сможете сохранить позиции в поисковой выдаче, но и улучшить их.

А насколько часто вы сталкиваетесь с нашествием ботов? Не стесняйтесь, делитесь в комментариях своим опытом!

0
23 комментария
Написать комментарий...
Тимур С

Если роботы уже даже каптчу научились проходить...все бесполезно

Ответить
Развернуть ветку
Рустам Кагарманов

уже даже научились)? давным-давно умеют и успешно разгадывают

Ответить
Развернуть ветку
Чайка О.
А насколько часто вы сталкиваетесь с нашествием ботов?

На виси уже привычно.

Ответить
Развернуть ветку
Виктор Петров

Нейросеть?

Ответить
Развернуть ветку
Виталий Синюков

Вы бы уточнили, что имеете в виду. Напомню, что, к примеру, ваш и мой мозг это тоже нейросети.

Ответить
Развернуть ветку
Виктор Петров

Я подразумевал, что текст сгенерирован генеративкой.
То, что все мы немножко роботы - это бесспорно.

Ответить
Развернуть ветку
Виталий Синюков

А можно пару примеров конкретных маркеров, по которым вы определили AI-природу текста? Сам интересуюсь этим вопросом.

Ответить
Развернуть ветку
Виктор Петров

Футпринты. Бессмысленность - на уровне отсутствия некоторой логики. Смешивание терминов, важных для понимания, но неясных для нейросети.
Ну вот банально: тут смешиваются роботы и ботные профили. Они в принципе никак не пересекаются. В хорошем тексте было бы нечто типа "Проблема - причины - варианты решения". Тут просто компиляция того, что найдено в сети, без внутренней логики. Как это использовать?
Для генеративки всё равно. Для человека разница есть.
По-хорошему: человек составляет план статьи. Если не хочет/не может писать сам - запрягает генеративку. Полученное редактирует/режет/правит. На выходе - хоть какая-то внятность.
Тут - "Что ел, что радио слушал" (старая армейская поговорка).

Ответить
Развернуть ветку
antiddos24

Причем вот эта бессмысленность, какое-то поверхностное бултыхание буквами - с первых же строк выдает все эти AI тексты.

Ответить
Развернуть ветку
Виктор Петров

Да. Список ключевых слов, наспех сшитый между собой вводными словами типа "В целом", "Помните, что..."

Ответить
Развернуть ветку
Доктор Шкутко

Однозначно. Если в тексте пробежали по верхушке и не углубились ни в одну сторону - это ЧатГПТ и его реинкарнации.

Ответить
Развернуть ветку
Виктор Петров

Ага. Я вот даже не осуждаю. Просто констатация.

Ответить
Развернуть ветку
GOLD

Частично

Ответить
Развернуть ветку
Виктор Петров

Кмк, от и до. Автор не понимает, о чем пишет, логика в тексте отсутствует. Да и футпринты характерные.

Ответить
Развернуть ветку
Александр Сергеевич

Виктор, согласен с Вами. Бесполезный текст написанный нейросетью.

Ответить
Развернуть ветку
Александр Воловиков

Главное, чтоб не переборщить с установленными программами против ботов, а то самого блочить будут. Кстати, у меня так пару раз было. Меня CloudFlare воспринял за бота и заблокировал на время. Сейчас, видимо, его подкрутили и он ведет себя хорошо.

Не совсем понятно про парсинг, так как это явление не запрещено в РФ. Я парсингом занимаюсь регулярно через Гугл таблицы.

Раньше можно было использовать Crawl-delay, но сейчас частоту посещения можно настроить в Вебмастере, а Гугл сам определяет частотность в зависимости от мощности сервера.Кстати, Яндекс со своими таблицами в этом плане проигрывает. Их встроить нельзя, а про парсинг вообще промолчу.

Использую CloudFlare + математическая капча и полет сайта нормальный.

Ответить
Развернуть ветку
Антон Лаврентьев

Я использую https://botfaqtor.ru на протяжении уже полугода. Насколько я знаю, код Botfaqtor не сильно влияет на время загрузки сайта, он прогружается за какие-то миллисекунды.

Кроме того, функционал сервиса позволяет защищать сайт от накрутки поведенческих факторов, а рекламные кампании от ботов (Есть даже VK реклама)

Мне лично нравится сервис "Умная капча", благодаря ему количество мусорных заявок упало процентов на 40. Подкупает то, что она показывается только ботам и не мешает обычным пользователям.

Ну и наличие большой базы ботов и скликивателей, которым сразу отключают показ рекламы - это просто шик.

Ответить
Развернуть ветку
Светлана Никонова

Постоянно с ботами сталкиваемся на своих проектах. Бывает, что и антибот с клаудом не помогает.

Ответить
Развернуть ветку
Олег Черников // SEO

Хорошие боты.

Ответить
Развернуть ветку
Виктор Петров

Тут истина. Боты рвут офферов, офферы атакуют ботов.
Матрица!

Ответить
Развернуть ветку
Otto Blotto

Тема cloudflare не раскрыта- как настроить ее, напишите.

Ответить
Развернуть ветку
antiddos24

Какой ответ вы ждете от текста, скомпилированного в ChatGPT. Это просто набор букв за заданную тему, причем такую, о которой копирайтер вообще не имеет никакого представления.

Ответить
Развернуть ветку
Digital-агентство Webit

Уже кажется, что любые попытки защиты тщетны, вопрос только в количестве денег, которые взломщик затратит на ботов/атаку

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
20 комментариев
Раскрывать всегда