Как настройки хостинга сломали SEO продвижение мебельного магазина, за 1 час сэкономили год работы
В SEO порой встречаются ситуации, которые сложно объяснить простыми словами заказчику.
Так случилось и у меня в прошлом ноябре, когда пришел клиент с запросом на продвижение интернет магазина мебели
Как обычно я начал с анализа текущей ситуации и обнаружил интересное. Страниц в поиске НЕТ. Нет совсем на 100%.
При этом:
- сайт не закрыт от индексации
- в вебмастере нет ошибок
- страниц нет как в Яндексе, так и в Google
- возраст домена более 10 лет
- сайт не состоит в спам базах и не замечен в како-либо подозрительной активности
Клиент сообщил, что поменял несколько подрядчиков и никто из них не смог решить эту проблему, пробовали разное, писали в поддержку, меняли код шаблонов, мета теги, htaccess и даже переделывали сайт на другую CMS.
Что делать?
Этот вопрос неизбежно возникает в голове, когда я вижу что-то подобное. К счастью решение нашлось достаточно быстро.
Закинув сайт во все возможные сервисы для проверки и не получив никаких вменяемых результатов я пришел к выводу, что проблема лежит совершенно в другом поле, там где ее никто не пробовал искать
Чтобы понять Яндекс, надо думать как Яндекс
Взвесив всю полученную информацию я пришел к гипотезе о том, что роботы Яндекса и Гугла видят сайт совершенно иначе, чем обычные пользователи, из за этого и происходит проблема, которую никто не видит!
Чтобы проверить, я установил в Chrome расширение User Agent Switcher и создал в нем профиль "робота яндекса" со следующими настройками:
Затем подменил User Agent в своем браузере и открыл главную страницу сайта...
Бинго, теперь ясно куда копать
Дело за малым, осталось найти причину и устранить ее. Для этого я вооружился доступом по SSH и начал искать на хостинге через команду grep подозрительные участки кода, которые могли повлиять.
Не найдя ничего связанного с проверкой user agent в коде самого сайта, я продолжил поиск уже в конфиге сервера и в настройках Nginx нашел виновника всех бед.
Умельцы со стороны заказчика решили заблокировать ботный трафик несколько лет назад и сделали это с помощью конфига Nginx, проверили что все работает и пошли дальше бороздить просторы интернета со спокойной душой.
В конфиге Nginx я обнаружил подключения файла:
Который содержал в себе такую запись:
В результате любой user agent, в котором содержится фраза "bot" блокировался антифродом с ошибкой 444. Не трудно догадаться, что примерно все юзерагенты поисковых систем содержит в себе эту подстроку
Что дальше?
Я убрал спорную механику из конфига и уже через несколько дней сайт снова начал возвращать страницы в индекс и набирать позиции, а ИКС пошел вверх
Выводы
Этот кейс показывает как важно при продвижении обладать знаниями не только в SEO, но и в программировании и администрировании. хостинга.
Только комплексный подход дает возможность решить 100% задач по продвижению и давать клиентам эффективный результат.
К таким специалистам отношусь я и смогу предложить полноценное решение вашего вопроса в области SEO, разработки сайтов или запуска рекламы.
Welcome по любым контактам в моем профиле на VC или на моем сайте