SEO Serge Bezborodov
13 071

Думай как Google: что мы узнали о поведении поискового бота Google спустя 6 млрд лог-строк

Технический директор JetOctopus Сергей Безбородов рассказывает, как сделать сайт более привлекательным для поискового бота, основываясь на результатах своего исследования по анализу логов длиной в один год и 300 млн проверенных страниц.

В закладки
Аудио

В прошлой статье я рассказывал о том, как в попытках увеличить трафик на своём сайте в 5 млн страниц я столкнулся с тем, что вместо качественной услуги глубокого SEO-анализа мне предлагали гадание на кофейной гуще. Тогда я сам разработал сервис для такого анализа и со своей партнёршей Юлией Нестерец построил SaaS-компанию JetOctopus.

Сейчас я хотел бы поделиться с вами общими положениями о поведении поисковых ботов, к которым мы пришли за это время. Я рассчитываю на то, что наши наблюдения как минимум помогут вам лучше понять, как работают веб-краулеры, ну а как максимум вы получите практические советы, которые помогут вам улучшить SEO вне зависимости от того, стали вы уже крупным сайтом или только растёте.

Как понять, попадаешь ли ты в выдачу

Узнать наверняка о том, какие страницы вашего сайта попадают в поисковую выдачу, а какие нет, можно только проверив весь сайт на индексацию. Однако если у вас 10 или 20 млн страниц, то проверить каждую из них может обойтись в круглую сумму, примерно равную стоимости паркетника KIA Sportage из салона.

Вместо этого мы обращаемся к анализу логов. Механика работы JetOctopus с клиентским сайтом такова: мы краулим сайт так, как делает это поисковой бот Google или «Яндекса», а затем анализируем логи сайта за последние шесть месяцев. В логах видно, заходил ли поисковой бот на сайт, если да, то на какие страницы, как давно и как часто.

Краулинг — это процесс, при котором поисковой бот (краулер) посещает ваш сайт, переходит по всем ссылкам и добавляет их в очередь на индексацию.

Он сравнивает список URL-страниц с теми, которые уже есть в индексе. Если нужно, обновляет их содержимое, добавляет новые и удаляет старые. Только после этого поисковик решает, попадают ли ваши страницы в индекс поисковой системы, а оттуда в выдачу результатов поиска.

Дальше всё просто — если бота не было на странице, то, скорее всего, её не будет в индексе. А вот если бот не просто был странице, а бывает по нескольку раз в день, то таким страницам нужно уделить максимум внимания.

В сумме эта информация даёт нам общую картину того, что мешает сайту органически расти и развиваться, и впервые не вслепую вносить технические изменения в страницы сайта и в его структуру.

Я много раз подчёркиваю, что мы работаем только с крупными сайтами, и тому есть одна причина: если на сайте меньше 50 тысяч страниц, то, скорее всего, рано или поздно поисковой бот посетит их все.

Но сайты от 100 тысяч страниц сталкиваются с тем, что веб-краулер ходит по страницам, о существовании которых владельцы сайта и не подозревают, и тратит ценный краулинговый бюджет на них. В то время как нужные и важные для индексирования страницы могут быть размещены неудобно для бота, и он о них никогда не узнает.

Краулинговый бюджет — это определённое количество ресурсов, которое Googlebot тратит на сканирование вашего сайта. Он необходим, чтобы приоритезировать, что и когда сканировать и сколько ресурсов для сканирования может выделить хостинг, размещающий ваш сайт.

Размер бюджета зависит от различных факторов: размера сайта, скорости генерации страниц, структурных факторов, объёма запросов, по которым ранжируется сайт, их частотности и других.

Поисковая система в целом не ставит целью скраулить полностью сайт, её цель — давать ответы на вопросы пользователей с минимальными для себя затратами.

Что индексировать, что не индексировать — не понятно

Наблюдаем за поисковым ботом

За последний год мы просканировали 300 млн страниц и проанализировали 6 млрд лог-строк больших сайтов. Нашими клиентами были Auto.RIA, TemplateMonster, HeadHunter, Preply, Work.ua и другие. Исходя из этих данных, мы заметили тенденции в поведении бота: какого типа страницы он пропускает, а на какие любит заходить почаще, на что обращает внимание, а что не имеет никакого значения.

Вся информация, представленная ниже, — результат нашего собственного анализа и выводов, к которым мы пришли, а не перевод на русский язык статьи с Google Webmasters. Мы не даём рекомендаций, эффективность которых не доказана и не обоснована. Все выводы, к которым мы пришли за это время, для удобства подкреплены соответствующими графиками.

Так что же влияет на поведение бота? От чего зависит, пойдёт он на конкретную вашу страницу или нет? Мы для себя выделили несколько факторов.

DFI

DFI расшифровывается как distance from index, а именно как далеко ваша страница находится от главной страницы в кликах. Это один из самых важных параметров, влияющих на популярность страницы у краулер-бота.

Причём важно понять, что эта дальность измеряется не вложенностью каталогов, как например, https://site.com/shop/iphone/iphoneX.html. Она измеряется именно количеством кликов от главной страницы: https://site.com iPhones Catalog → https://site.com/shop/iphone iPhone X → https://site.com/shop/iphone/iphoneX.html.

Ниже на графике вы можете увидеть, как планомерно угасает интерес поисковика Google к странице с её удалённостью от главной за последний месяц и за шесть месяцев.

Данные основаны на анализе 6 млрд лог-строк, 300 млн краулиновых страниц

Как мы видим, при удалённости от главной на пять или шесть кликов бот Google краулит уже только половину страниц, а чем дальше, тем процент страниц меньше. Значения этих графиков усреднённые для 18 млн страниц, проанализированных на момент построения графика, однако всё, конечно, зависит от ниши конкретного сайта.

Что делать

Очевидно, что лучшей стратегией в этом случае было бы избегать DFI выше пяти, тщательнее прорабатывать структуру сайта, уделять отдельное внимание перелинковке и так далее.

Но правда в том, что с сайтами больше 100 тысяч страниц этого добиться сложно. Обычно это сайты, имеющие свою историю, в течение которой они меняли структуру, поэтому нельзя просто взять и убрать страницы с DFI 10, 20 или даже 30. Также не решит проблему и проставить по одной ссылке, ведущей на них.

Оптимальным способом борьбы с высоким DFI будет посмотреть на эти страницы и понять, насколько они важны и какую позицию имеет эта страница в выдаче.

Страницы с большим DFI, но хорошим местом в выдаче имеют больший потенциал, чем аналогичные страницы, которые занимают сотые места по запросам.

Чтобы поднять посещаемость потенциально интересных страниц, на них нужно поставить ссылки с соседних страниц. Одной-двумя тут не обойдёшься. На графике ниже видно, что в среднем перелинковка начинает работать от одиннадцати ссылок на страницу и выше.

Перелинковка

Конечно, чем больше сайт, тем больше имеет значение количество ссылок, ведущих на конкретную страницу. Эти данные актуальны для сайтов от одного миллиона страниц и выше.

Если же вы обнаружили, что на важные страницы на вашем большом сайте ведёт меньше десяти ссылок, не спешите предпринимать срочные действия. Для начала проверьте, все ли из этих страниц качественные. И если да, добавляйте ссылки на них неспеша, небольшими итерациями, каждый раз проверяя через логи результат своих действий.

Размер контента

Это, пожалуй, самый известный аспект SEO-анализа. Разумеется, чем больше контента на вашем сайте, тем лучше. На графике видно, как критически падает значение Crawl Ratio на страницах, где меньше 500 слов.

Что делать

По моему опыту, в половине случаев страницы с контентом до 500 слов — мусорные. У нас был случай, когда на клиентском сайте мы нашли 70 тысяч страниц, содержащих в себе только размер одежды, причём часть этих страниц была в индексе.

Поэтому в первую очередь проверьте, нужны ли вам страницы, за которые вы собираетесь бороться. Если да, то количество контента придётся добавить. Если же добавить нечего — смиритесь и оставьте всё как есть. Иногда это лучше, чем пытаться высосать текст из пальца.

Дополнительные факторы

Кроме этого, ощутимое влияние на Crawl Ratio имеют следующие факты.

Время загрузки страницы

В первую очередь это скорость загрузки страницы. Боту приходится ждать загрузку вашей страницы так же, как и обычному пользователю, и тратить на это свои ресурсы. Так что если в вашем сайте больше миллиона страниц, высока вероятность, что бот скорее загрузит пять страниц по одной секунде, чем одну страницу, которая будет загружаться пять секунд.

Что делать

Это сугубо техническая задача, и нет единственного простого решения в стиле «взять сервер побольше». Но главный принцип — любую оптимизацию нужно начинать с профилирования, то есть понять, где узкие места, что именно тормозит, и потом уже предпринимать действия.

Полезный контент или шаблон страницы

Ещё важно соотношение полезного контента и шаблона страницы. Часто сайты, содержащие, например, имена детей или клички для собак, состоят из страницы с длинными и сложными шаблонами, а вот количество полезного контента там немного: либо список, либо короткое описание одного из пунктов.

Много ли контента соберёшь про клички собак? «Тузик — это старинная русская кличка, пришедшая к нам от любителей карточных игр». На такие страницы боты не хотят использовать свои ресурсы.

Что делать

Сохранять баланс. Заходить на страницы с большими сложными шаблонами, с большим количеством сторонних ссылок и практически полным отсутствием полезного контента не любят не только боты.

Orphan Pages

Orphan Pages — сиротские страницы с непростыми судьбами, о которых не знают поисковики. Лучше всего понять, что такое Orpgan Pages, помогут круги Эйлера на картинке ниже.

Вот нормальная ситуация для молодого сайта, который не успел пять раз поменять свою структуру: реальный объём сайта 900 тысяч страниц, 400 тысяч страниц из которых известны и вам, и поисковому боту Google, а 500 тысяч — ещё не известны. Закинув эти 500 тысяч страницы в индекс, вы гарантировано получите рост трафика.

Обратите внимание, что уже даже в этом случае есть небольшой кусочек страниц (синий сектор на рисунке), о которых вы не знаете и которых никогда не найдёте у себя на сайте, но о которых знает только Google. И там может быть что угодно. Например, результаты неудачного поиска пользователей.

Но большие сайты редко выглядят так аккуратно. В основном сайты с историей выглядят вот так.

Тут уже другая проблема: Google знает о вашем сайте больше, чем вы сами. Там могут быть удалённые страницы, страницы с JavaScript или AJAX, страницы неактуального редиректа или чёрт знает что ещё. У нас была ситуация, когда из-за программистской ошибки в карту сайта попал список из полумиллиона неработающих ссылок. Через три дня ошибку обнаружили и этот список оттуда убрали, но Googlebot продолжал ходить по этим битым ссылкам ещё полгода.

Зачастую краулинговый бюджет, о котором мы столько говорим, тратится не просто не самым эффективным образом — он расходуется на эти Orphan Pages.

Что делать

Тут есть два пути. Первый, каноничный — навести порядок. Привести в порядок структуру сайта, сделать перелинковку, присоединить Orphan Pages ссылками к часто посещаемым страницам — поставить задачи программистам и ждать переиндексации.

Второй, оперативный — собрать список URL этих страниц, проверить, рабочие ли они, и если да, то сгенерировать из них карту сайта и отправить в Google и «Яндекс». Это сделать легко и быстро, но в индекс при этом попадёт только половина.

Следующий уровень

Алгоритмы и технологии поисковиков развиваются уже два десятилетия, и наивно было бы полагать, что даже такие простые вещи, как краулинг сайта, можно описать несколькими графиками.

Мы по каждой странице собираем более 200 различных параметров, и до конца года это количество удвоится. Если представить сайт в виде таблицы в 1 млн строк (страниц), умноженных на 200 столбцов (параметров), становится очевидно, что простых выборок тут уже будет недостаточно.

Мы пошли дальше и применили машинное обучение, чтобы найти влияние факторов на краулинг Googlebot в каждом конкретном случае.

Для одних сайтов значительную роль играет контент, для других большее влияние оказывает перелинковка.

Конечная цель этой задачи: из сложных комплексных данных давать простые ответы — что наиболее сильно для вашего сайта влияет на поведение бота, какие кластера страниц связаны между собой общими факторами, чтобы вести над ними работу комплексно, и так далее.

До того как я сам загрузил и проанализировал логи своих сайтов-агрегаторов вакансий HotWork, мне казалось неправдоподобной эта история про сиротские страницы, которые видят поисковики, но не видим мы. Но реальная ситуация оказалась ещё более невероятной, чем я мог предположить. Например, у нас на сайте по краулеру было 500 страниц с 301 редиректом, а «Яндекс» видел 700 тысяч таких страниц.

Технари не очень любят хранить логи, якобы это «нагружает диски», большие объёмы и так далее. Но объективно: на большинстве сайтов с посещаемостью до 10 млн в месяц запись логов прекрасно работает с настройками по умолчанию.

Касаемо объёмов — архивируйте и скидывайте их на Amazon S3-Glacier — за $1 в месяц можете хранить 250 Гб данных, хватит надолго. Для системного администратора настройка такой интеграции не сложнее, чем заварить кофе.

В будущем исторические логи могут очень помочь в анализе проблем, влияния очередных апдейтов Google.

Поэтому я настоятельно советую вам попробовать лог-анализ. Уверен, он вас удивит.

Материал опубликован пользователем. Нажмите кнопку «Написать», чтобы поделиться мнением или рассказать о своём проекте.

Написать
{ "author_name": "Serge Bezborodov", "author_type": "self", "tags": [], "comments": 42, "likes": 65, "favorites": 228, "is_advertisement": false, "subsite_label": "seo", "id": 64631, "is_wide": false, "is_ugc": true, "date": "Wed, 17 Apr 2019 08:26:07 +0300" }
Акции банка «Тинькофф»
19,20$
0,04$
{ "id": 64631, "author_id": 22646, "diff_limit": 1000, "urls": {"diff":"\/comments\/64631\/get","add":"\/comments\/64631\/add","edit":"\/comments\/edit","remove":"\/admin\/comments\/remove","pin":"\/admin\/comments\/pin","get4edit":"\/comments\/get4edit","complain":"\/comments\/complain","load_more":"\/comments\/loading\/64631"}, "attach_limit": 2, "max_comment_text_length": 5000, "subsite_id": 199127, "last_count_and_date": null }

42 комментария 42 комм.

Популярные

По порядку

Написать комментарий...
7

Крутая статья, спасибо! Редко когда увидишь не просто советы в статье, а еще и анализ.

Ответить
1

спасибо!

Ответить
3

С удовольствием прочитал, интересный подход. Надо тоже заняться сбором статистики с логов посещений.

В принципе, хранить логи не обязательно, достаточно считывать с них данные вовремя (ежедневно, допустим)

Ответить
4

В принципе да, Александр, но "смотреть ежедневно" - это очень оптимистичный настрой. Там не так мало данных и не такой уж это приятный процесс. Поэтому, как правило, на вопрос клиентам "Вы логи собираете"? Ответ "Да". "А вы когда-нибудь в них заглядывали?" Ответ "Нет." Ну и первая цель хранения логов - это на случай, вдруг если что-то глобальное упадет. Мы же показываем, какую пользу можно брать на регулярной основе. Приятно, если мы вас этим заразили.

Ответить
1

считывать ежедневно - означает перенос данных из логов в более удобный и компактный формат, в базу данных

а не то, что каждый день в статистику заглядывать

Ответить
1

Через сервисы google cloud можно организовать автоматический сбор/обработку/анализ/хранение данных, если есть четкие критерии по параметрам и классификации.

Ответить
2

Была бы ещё интересна статистика по роботам: кто чаще ходит, в какое время суток, корреляция между скоростью загрузки и количеством посещений. В общем, хочется взглянуть на цифры, но это уже, наверное, вне контекста статьи.

Ответить
3

мы делали подобные выборки, там инфы еще на пару статей, у гугла например есть зависимость между ботами адвордса и основным гуглботом - добавили большую кампанию на кучу кеев - набежали боты адвордса, основной бот гугла ушел - если не анализировать в комплексе, то можно испугаться))
на яндекс не такая сильная зависимость в крулинге по глубине сайта, если например в целом по гуглу crawl ratio низкий, а по яндексу высокий - часто говорит по проблемах в структуре

Ответить
0

Ждем пары статей, очень интересно!

Ответить
1

Статья хороша реальными данными, спасибо! Особенно впечатлило машинное изучение краулинга Гуглбота. Однако данные на графике не совсем понятны. Какие же факторы больше всего влияют на краулинговый бюджет?

Ответить
2

самый главный фактор - это насколько частотны запросы по которым ранжируется страница, потом идет вложенность по кликам, перелинковка
в целом на краулинговый бюджет влияет тематика сайта, размер и общий трафик

Ответить
1

Подскажите способ проанализировать перелинковку на сайте. Я пытаюсь оптимизировать сайт под SILO архитектуру, глазами просмотриваю ссылки на каждой странице, но на 100-том УРЛе задолбалась. Буду благодарна за совет: как просканировать все ссылки одним махом?

Ответить
1

для небольших сайтов возьмите любой десктоп краулер, мне нравится sitebulb или нетпик - там скраулите и увидите картину по перелинковке

Ответить
0

Коротко о том как работает SEO транзистор.

Релевантность=семантическая (смысловая или текстовая) составляющая*доверие к этой информации (траст он же PageRank).
Обычно, поисковая система для оценки релевантности сайта использует оба фактора в равной степени. Однако то, какой из них двоих будет главным в оценке, можно указать поисковому алгоритму самостоятельно и придать нужному фактору до 95% значимости относительно оставшегося.
Этим соотношением управляет структура сайта.

Т.е. можно создать 2 сайта с разными структурами, один из которых будет оцениваться исключительно по трасту, а другой исключительно по семантической составляющей.
Сославшись ссылкой с одного такого сайта на другой, мы УМНОЖИМ оба фактора на акцепторе, что вызовет сильный подъем сайта акцептора в поисковой выдаче.

Чем это лучше варианта, в котором перемножение происходит непосредственно на одном сайте?
Тем, что в последнем случае на этом все и закончится. Т.е. сайт получит некоторую оценку релевантности и ВСЕ, дальнейших движений не будет.
А вот с двумя сайтами разных структур будет продолжение: Следующий апдейт поисковой выдачи приведет к увеличению релевантности донора!!! (вы не ослышались, именно донора). А следующий апдейт увеличит релевантность опять акцептора, следующий опять донора и т.д. пока релевантности обоих сайтов не станут максимально возможными. Эта дельта между исходной релевантностью, полученной при индексации, и конечной релевантностью после серии апдейтов, называется коэффициентом усиления seo транзистора. Правильно сделанный SEO транзистор имеет коэффициент усиления 10. Подробнее на сайте по ссылке http://seozoom10.com/

Ответить
3

т.е. поисковики тратят миллиардные бюджеты, двадцать лет разрабюатывают технологии, машин лернинги, ренк брейны и тут мы просто берем два сайта и "перемножаем" что-то на что-то и profit!
у Вас наверное много сайтов и куча трафика есть

Ответить
0

я просто объяснил как работает алгоритм и как его принипы эксплуатирует сео транзистор. А вы уже начали детей рожать, разводиться и получать профит от дележки имущества.

Ответить
1

"Однако если у вас 10 или 20 млн страниц, то проверить каждую из них может обойтись в круглую сумму, примерно равную стоимости паркетника KIA Sportage из салона."
Автор, пожалуйста, раскройте экономику процесса проверки индексации за паркетник. Кажется, я прогадал с выбором автомобиля.

Ответить
0

наймите программиста, который напишет необходимые для обработки данных программы и подгрузит их в гугл, а статья через чур из огорода все объясняет, согласен 90%, что написана для несведущих с целью рекламы платных программ в комментариях

Ответить
1

Мне как владельцу двух сайтов, бы было интересно посмотреть на статистику роботов, желательно с цифрами. Сейчас поисковики изменяют правила почти каждый день, тяжело сеошникам.

Ответить
1

И каким образом набивать сайт символами, если это, например, интерне-магазин. Здесь же будут обычные категории, айтемы и не более + все похожие по структуре. Или здесь другой СЕО-подход?

Ответить
1

мало знать какие страницы обошел робот, надо еще знать по как оптимизировать sitemap для ранее криворуко добавленного сайта в индекс гугла и что сделать с самим сайтом

Ответить
0

500 слов - имеется в виду любых или именно некий текст? Например, на вашем проекте AutoRIA на страницах категорий нет дополнительного текста: https://auto.ria.com/car/used/ хотя страница явно продвигаемая. То же и на карточках автомобилей. Мне кажется, этот вопрос нужно уточнить. Для таких страниц микроразметка важнее.
А в остальном круто. Спасибо!

Ответить
1

500 слов всего на странице, вместе со сквозным шаблоном (хедер футер и т.п.), там очень усредненные цифры, они больше подходят для контентных сайтов, чем для каталожных
в каталожных, например интернет магазины, авто сайты - нужно смотреть % полезного текста от шаблона, он более говорящий

Ответить
0

А я вот пользуюсь лог-анализатором Screaming Frog. Чем аналитика от JetOctopus мне будет полезнее?

Ответить
1

все зависит от объемов, для небольших сайтов SF вполне подходит
но есть еще момент с подобными тузловинами - они показывают где и как бот ходит, но не вы не видите где бот НЕ ходит, мы это и делаем с куче расширенной аналитики и инсайтов.

Ответить
0

То есть по факту, для молодого сайта, с большим количеством страниц нужно делать сложную структуру шаблонов страниц, незначительную удалённость от главной страницы и заливать туда текста больше 2000 символов и это резко повлияет на повышение посещений бота?

Ответить
0

тут как из математики "необходимо, но недостаточно": самая главная цель - отвечать на запросы пользователей - полезный контент, юзабилити и так далее

Ответить
0

Довольно интересная статья. Да, поисковики изменяют свои правила чуть ли не каждый день, и поэтому сеошнику приходится быстро адаптироваться, а иногда начальство не может ждать долго, им нужен быстрый результат. И кстати, про лог-анализирование узнал новое, спасибо, полезная статья

Ответить
0

Хорошая статья, которая лично мне будет полезна. Теперь я понимаю, что логи можно и нужно анализировать, и также стремиться оптимизировать свой сайт, и ни в коем случае не допускать сложных шаблонов.

Ответить
0

Очень понравилась статья. Хотел бы уточнить. Вы исследовали работу Гугл бота. А что насчёт Яндекса? В русскоязычной среде всё же поисковик Яндекс более популярен. Как там ведёт себя бот в плане краулинга? Аналогично гугловскому?

Ответить
0

яндекс у нас есть в данных, но не так много как гугла. В целом на него оказывают влияение все вышеперечисленные факторы, но не так сильно.
Например, он гораздо лояльнее относится к страницам которые есть только у вас в сайтмапе и их нет в перелинковке, гугл же по таким "не любит" ходить

Ответить
0

А как вообще лучше оптимизировать работу молодого и развивающегося сайта количество страниц у которого постоянно растёт. Например, всячески избегать DFI выше пяти как написано в статье? Регулярно делать перелиновку? А ещё что?

Ответить
0

смотрите в логи регулярно, особенно после выливки апдейтов на сайт, чтобы вы могли сразу видеть ошибки, не дожидаясь "писем счастья" от гугла

Ответить
0

Поисковый бот многие факторы учитывает, это неудивительно, но чтоб его заинтересовать надо реально создавать уникальные статьи с правильно подобранными SEO ключами, любой копирайтер это знает.

Ответить
0

Мне было интересно почитать про молодые сайты, сейчас очень трудно вывести самому сайт в топы поисковых систем, в чем то данный материал может быть полезным и применен на практике.

Ответить
0

Мне было полезно узнать для себя как владелице трех сайтов, что то новенькое. Все подробно и понятно расписано и про SEO анализ и про поисковые системы. Хороший материал, рекомендую к прочтению.

Ответить
0

Хорошо бы наверно было думать как гугл, но не всегда получается, сама статья интересная и полезная для тех кто имеет собственный сайт или только собирается его создавать. Рекомендую.

Ответить
0

Да, ежедневно считывать данные это будет хлопотно. Я бы делал это например раз в неделю. Вообще сбор статистики хорошая идея, думаю это поможет оптимизировать сайт в поисковой выдаче

Ответить
0

Тема поднята интересная и актуальная. Хочу теперь побольше узнать о том, почему так происходит. У нас пока небольшой сайт, через некоторое время обращусь повторно к этой теме, когда подрастем.

Ответить
0

Мне кажется, что у сайтов с такими объемами страниц наверняка есть собственная аналитика в вопросах продвижения. Потому что вопрос крайне важный. Почитал с интересом, но, если честно, мало что понял кроме того, что нужно нанимать специалистов.

Ответить
0

О таком векторе анализа данных я еще не слышал. Знаю в основном про Anatilycs, Search Console. То что можно вытащить данные о поведении бота на твоем сайте, вообще впервые слышу. Мега ценная статья. Надо разбираться.

Ответить
0

Можете посоветовать бесплатный анализатор логов сайта с визуализацией по ошибкам, сканам страниц и прочее. Сайт не большой до 2000 страниц.

Ответить
0
{ "page_type": "article" }

Прямой эфир

[ { "id": 1, "label": "100%×150_Branding_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox_method": "createAdaptive", "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfl" } } }, { "id": 2, "label": "1200х400", "provider": "adfox", "adaptive": [ "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfn" } } }, { "id": 3, "label": "240х200 _ТГБ_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fizc" } } }, { "id": 4, "label": "240х200_mobile", "provider": "adfox", "adaptive": [ "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "flbq" } } }, { "id": 5, "label": "300x500_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfk" } } }, { "id": 6, "label": "1180х250_Interpool_баннер над комментариями_Desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "h", "ps": "bugf", "p2": "ffyh" } } }, { "id": 7, "label": "Article Footer 100%_desktop_mobile", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjxb" } } }, { "id": 8, "label": "Fullscreen Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjoh" } } }, { "id": 9, "label": "Fullscreen Mobile", "provider": "adfox", "adaptive": [ "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjog" } } }, { "id": 10, "disable": true, "label": "Native Partner Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fmyb" } } }, { "id": 11, "disable": true, "label": "Native Partner Mobile", "provider": "adfox", "adaptive": [ "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fmyc" } } }, { "id": 12, "label": "Кнопка в шапке", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "p1": "bscsh", "p2": "fdhx" } } }, { "id": 13, "label": "DM InPage Video PartnerCode", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox_method": "createAdaptive", "adfox": { "ownerId": 228129, "params": { "pp": "h", "ps": "bugf", "p2": "flvn" } } }, { "id": 14, "label": "Yandex context video banner", "provider": "yandex", "yandex": { "block_id": "VI-223676-0", "render_to": "inpage_VI-223676-0-1104503429", "adfox_url": "//ads.adfox.ru/228129/getCode?pp=h&ps=bugf&p2=fpjw&puid1=&puid2=&puid3=&puid4=&puid8=&puid9=&puid10=&puid21=&puid22=&puid31=&puid32=&puid33=&fmt=1&dl={REFERER}&pr=" } }, { "id": 15, "label": "Плашка на главной", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "p1": "byudx", "p2": "ftjf" } } }, { "id": 16, "label": "Кнопка в шапке мобайл", "provider": "adfox", "adaptive": [ "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "p1": "byzqf", "p2": "ftwx" } } }, { "id": 17, "label": "Stratum Desktop", "provider": "adfox", "adaptive": [ "desktop" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fzvb" } } }, { "id": 18, "label": "Stratum Mobile", "provider": "adfox", "adaptive": [ "tablet", "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fzvc" } } }, { "id": 19, "label": "Тизер на главной", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "p1": "cbltd", "p2": "gazs" } } } ]
Команда калифорнийского проекта
оказалась нейронной сетью
Подписаться на push-уведомления
{ "page_type": "default" }