SEO-аудит по-быстрому: инструменты и принципы

Основа успешного продвижения сайта – правильная диагностика. Без данных вы всего лишь человек со своим мнением, а в SEO, возможно, попросту шаман. В этой статье я расскажу, как делаю экспресс-аудиты с учетом всех новинок 2021 года. Статья предназначена для SEO-специалистов начального и среднего уровня и вебмастеров, продвигающих свои сайты самостоятельно.

SEO-аудит по-быстрому: инструменты и принципы

Для начала обозначу: я частный SEO-специалист, работаю в клиентском SEO, и аудиты – часть моей рутины. Когда ко мне обращаются за продвижением, я должен понять, могу ли я быть полезен, и в чём проблемы сайта, если они есть. Кроме того, я консультирую людей по вопросам продвижения в поиске. Понятно, что для работы мне нужны хорошие инструменты, способные предоставить информацию быстро, точно и недорого.

За последние годы основательно поменялись не только алгоритмы поисковых систем, но и сам интернет. Проводя первичный аудит сайта без доступа к системам аналитики и статистики, приходится учитывать много новых факторов, способных самым драматическим образом влиять на продвижение. Поэтому я решил кардинально пересмотреть свои старые чек-листы и используемый инструментарий.

Конечно же, почти все привычные инструменты SEO-анализа можно применять по-прежнему, они не теряют актуальности. Но некоторые данные с их помощью получить либо нельзя, либо это слишком долго и проблемно. А экспресс-аудит – это максимум пара часов, которые уйдут на сбор важнейшей информации, её оценку и подготовку короткого отчёта с иллюстрациями.

Какие данные не нужны

Сразу скажу, что скептически отношусь ко многим факторам и характеристикам, которые многие SEO-специалисты считают важными, или преподносят их клиенту как важные. К ним относятся:

  • Быстродействие сайта, оцениваемое с помощью Google Speed Insights. Оценка топов как Google, так и Яндекс показывает, что сайты в топе очень редко соответствуют критериям качества от GSI. А интеграция рекомендаций этого сервиса на моей памяти ни разу не дала какого-то значимого эффекта и никак не повлияла на ранжирование.

  • Типичные для любого сервиса автоматических аудитов пункты, такие как ошибки и валидность HTML, соотношение текстового контента и кода, наличие какой-то микроразметки, количество знаков в тайтлах и метаописаниях и т.п. Всё это крайне редко имеет отношение к реальным факторам ранжирования и не влияет на оценку сайта алгоритмами.
  • Любой поверхностный анализ ссылочной массы. Линкбилдинг и проработка ссылочного профиля стали сложным процессом с непредсказуемыми результатами. Да, ссылки по-прежнему нужны и важны. Но поверхностный аудит может дать лишь очень общее представление о ссылочном профиле: количество ссылок, доменов, общую динамику развития ссылочной массы, приблизительные «пузомерки» доноров. Но достаточно ли этого, чтобы делать хоть какие-то выводы? – Нет. Можно лишь понять, пытался ли кто-то наращивать ссылочную массу, и какие способы он использовал, не более.
  • Автоматическая проверка семантики и текстовых факторов. Когда-то оптимизаторы держали в голове целые таблички с плотностью вхождений ключевых слов в расчёте под заданную поисковую систему. «Яндексу нужна плотность ключа в 2%, Гугл - не менее 7%» – наверняка вы такое слышали. Беда в том, что автоматические системы до сих пор основаны на такой логике. Это не работает. На коммерческой страничке может быть сотня прямых вхождений ключа - и это не будет переспамом.
  • Оценка юзабилити, UX, UI. К 2021 году оценка пользовательских свойств сайта стала совершенно самостоятельной дисциплиной, не имеющей к SEO никакого отношения. Субъективные оценки тут недопустимы, и не существует никаких сервисов, способных дать хоть какое-то представление о юзабилити сайта применительно к его продвижению в поиске. Посему оценку интерфейса и пользовательского опыта лучше оставить профессионалам в сфере UX, CRO (оптимизация показателей конверсии) и маркетологам.

Что поменялось за годы

Если вы до сих пор пользуетесь старыми чек-листами (тем более, как водится, чужими), вы наверняка упускаете несколько важных фактором, способных самым негативным образом повлиять на ранжирование.

Блокировки Роскомнадзора

Благодаря РКН и некоторым ретивым провайдерам сайт, который вы анализируете и который у вас прекрасно открывается, может быть недоступен у части посетителей. Обычная история: на виртуальном хостинге на одном IP лежит пачка сайтов, и среди них – ресурс, внесенный в «чёрные списки» РКН. Беда в том, что блокировать его могут и по IP, то есть в бан залетает вся пачка сайтов этого кластера.

Пользовательские блокировки

Проблема с нашествием ботов начиная с 2020 года привела к тому, что вебмастера, чьи сайты стали «сыпаться» в выдаче, пытаются защитить свой сайт различными системами антифрода, файерволлами или правилами htaccess. Проблема с падением по позициям и трафику может заключаться в чём угодно, но стало нормальным во всём винить ботов, а защищаться – фильтрацией трафика. Могут блокировать целые страны, отдельные подсети, типы устройств – да что угодно. Проблема в том, что владелец сайта может быть вообще не в курсе, что там блокируется. Забыл, сам не понял, что сделал, или вебмастер руководству просто ничего не сказал и уволился. И вот сайт недоступен для потенциальных клиентов или даже поисковых роботов, трафик и продажи падают - и никто ничего не понимает. А ларчик открывается просто, только нужно в него заглянуть.

Сервис "Лабрика" показывает, что сайт блокирует поисковых ботов
Сервис "Лабрика" показывает, что сайт блокирует поисковых ботов

Лишние перенаправления

Примерно пара лет прошла с момента, когда сайты массово перенесли на протокол HTTPS. И не всегда перенос был сделан правильно. Очевидные проблемы – это смешанный контент, абсолютные ссылки, ведущие на старые адреса на http и т.п. Здесь всё понятно. Но вот что может ускользнуть от глаз – так это лишние редиректы на серверном уровне. Имеются в виду любые редиректы, как на уровне зеркал сайта, так и в рамках одного сайта. В чём проблема? – Гуглобот не пойдёт по всем вашим перенаправлениям. Гипотетически он может пройти и по двадцати редиректам, прежде чем остановиться, практически – может остановиться и на пятом. Поэтому избавляться стоит от любого лишнего перенаправления в рамках сайта.

Требования к контенту

Тут мы не оцениваем пользу для посетителя, семантику и т.п. Речь идёт о более приземленных материях: объёмах контента и его уникальности в рамках сайта. Гугл закрутил гайки в этом отношении в 2017 году, Яндекс ввёл аналогичную фильтрацию весной 2020. Речь о хорошо всем известных «тонком контенте», МПК (малополезный или малопопулярный контент), НКС (недостаточно качественные страницы). Чем больше страниц на сайте поисковые системы признают «мусорными», тем хуже будет ранжироваться сайт на уровне хоста.

Уже на стадии первичного аудита стоит понять, сколько страниц сайта содержит менее 300 слов в зоне основного контента, и каков процент неявных дублей. И, разумеется, оценить важность таких страниц в рамках сайта: может быть, их можно просто закрыть от индексации или даже удалить, или придётся доводить до ума.

Коммерческие факторы и E-A-T

Разумеется, вы и раньше их проверяли. Но согласитесь – очень поверхностно. Ну, есть там адрес, и телефон на 8-800, цены указаны, чего ж ещё-то. Проблема в том, что начиная с «медицинских апдейтов» Гугл и «Андромеды» Яндекса важность факторов доверия очень сильно выросла. Поисковики больше не хотят отдавать высокие позиции фейковым новостям, непрофессионалам, непроверенной информации.

Способов убедиться, что сайту стоит доверять, не так уж много. Например, судя по мартовским апдейтам Яндекса, в медицинской тематике из выдачи просто вылетели все, кроме сайтов клиник и агрегаторов. И не надо думать, что поисковики остановятся на медицине, юристах и финансовых организациях. Покажи адрес, юридическую информацию, сертификаты, отзывы. Претендуешь на владение информацией? – Покажи автора, его образование, подтверждающие документы, аккаунты в соцсетях. Всё должно быть обосновано и проверяемо, а информация представлена так, чтобы любой залётный толокер за первые 5 секунд всё увидел и сделал правильные выводы.

Анализ конкурентов

Важнейшая практика в рамках SEO, и сейчас она приобрела новое измерение. Изучаемый сайт может быть ничем не хуже, а то и лучше топовых сайтов, но не иметь позиций. Просто потому, что конкуренты в этом рыночном сегменте используют вовсе не те практики, которые вслух рекомендуют Елена Першина и Михаил Сливинский. И вам уже на стадии первичного аудита нужно понять, поможет ли вашему клиенту правка тайтлов, размещение бесполезных статей и удаление дублирующихся заголовков H1, или топы можно получить исключительно накрутками поведенческих факторов.

Точность диагноза на этом этапе – это, в том числе, и ваша репутация как специалиста. Можно как угодно точно высчитывать вхождения ключей или объём ссылочной массы, но если их важность невысока, а работают совсем другие факторы, вы лишь введёте клиента в заблуждение.

Инструментарий для проведения SEO-аудитов

Старые-добрые bertal.ru для проверки редиректов, redbot.org для оценки кэшей, букмарклеты (от того же Арсенкина), комбайны типа cy-pr.com и pr-cy.ru, megaindex.com и их многочисленные аналоги никуда не делись. Их всё так же можно использовать в качестве инструментов аудита. Однако начиная с этого года я решил кардинально пересмотреть этот инструментарий: аудитов я провожу много, и хотелось бы получить информацию более полно, быстро, и с учетом новых реалий. Поэтому после многочисленных тестов и анализа рабочих процессов я остановился на нескольких сервисах и программах, позволяющих получить нужные мне данные. Вот мой список.

  • webpagetest.org. Бесплатный сервис, который позволяет оценить технические характеристики сервера и сайта с учётом заданной точки мира, User-Agent, устройства. Много данных такого рода не нужно: лично я оцениваю TTFB (первичный отклик сервера), тип и количество запросов с сервера, некоторые вспомогательные характеристики. Как минимум, это позволяет понять, в каком техническом состоянии сервер, кэширование, грубо очертить возможные проблемы с быстродействием.
  • Screaming Frog SEO Spider (или его аналоги). С его помощью можно получить достаточно полную картину технического состояния сайта, настроек сканирования, выявить дубли, проблемы с контентом и многое другое. Главная проблема – объёмы сайта. Если вы включаете режим парсинга HTML (а я это делаю), то интернет-магазин среднего объёма (от 50 тысяч страниц) может парситься полдня на достаточно мощной машине – а у нас, напомню, экспресс-аудит. В принципе, для экспресс-аудита парсер необязателен, если у вас есть сервисы наподобие «Лабрики».
  • Labrika.ru. Это новый инструмент в моём арсенале, и аналогов некоторым его возможностям я лично не знаю. Не могу сказать, что все его приложения мне нужны. Однако возможности проверки доступности сайта для разных стран, User-Agents, проверки на клоакинг, наличия «нехорошего» контента в других сервисах я не встречал. И да, тут есть даже блок оценки коммерческих факторов и их важности в заданном сегменте.
    Примечание. Сервис платный, однако любой тарифный план недорог. Если вы занимаетесь аудитами на постоянной основе – начните с "Бизнес", этого достаточно для начала.
  • Keys.so. Ранее я пользовался Spywords.ru для анализа видимости сайта в поиске, однако Keys.so предоставляет намного большие возможности в этом отношении. В рамках SEO-аудита вы за пару минут можете понять, по каким позициям сайт уже в топе, а где - в топ-30, тут же проанализировать семантику и посмотреть на конкурентов. И всё это – с привязкой к поисковой системе, региону, и даже видимость в Яндекс-Дзен тут тоже можно оценить. Сервис платный, но своих денег стоит.
  • SEO SpyGlass. Условно-бесплатная программа, которая поможет оценить ссылочный профиль: количество ссылок, домены, анкоры, потенциальный риск попадания под фильтры – всё это здесь есть. Едва ли по возможностям программа сравнится с AHREFS, но в рамках экспресс-аудита это то, что доктор прописал.
  • ru.megaindex.com. Его я использую как текстовый анализатор и инструмент для оценки конкурентов. Хотите посмотреть динамику изменения топов за заданный период? – Здесь это есть. Для быстрого аудита сайта достаточно бесплатного тарифа.
  • arsenkin.ru/tools/. Этот хорошо известный всем сервис в рамках SEO-аудитов я использую не совсем так, как задумано изначально. Например, благодаря инструменту "Переоптимизация" можно быстро и бесплатно выяснить позиции сайта в Яндексе по заданным запросам и выявить проблемы с целевыми страницами.

Из основных инструментов, пожалуй, всё. А теперь посмотрим, как это можно применить на практике.

Пример проведения экспресс-аудита

Итак, в качестве пациента у нас сайт студии озвучивания КупиГолос. Студия работает с топовыми дикторами и актерами озвучки, чьи голоса вы наверняка слышали не только в рекламе, но и в дубляже множества известных фильмов.

Для начала запускаем Screaming Frog SEO Spider. Мои настройки: парсинг HTML, проверка контента на нечеткие дубли (я беру порог в 80%), а в качестве User-Agent выбираю Googlebot Smartphone. Такие настройки несколько увеличивают время парсинга, но зато позволяют провести полноценный анализ структуры, сканирования сайта и технические свойства контента. Процесс небыстрый, поэтому с него и начинаем.

Запускаем keys.so, анализ в Яндекс-Москва. С помощью этого сервиса мы оценим видимость сайта в Яндексе, как наиболее интересной в коммерческом плане поисковой системе. Кроме того, тут мы получим список ключей, которые используем при настройках аудита в «Лабрике». Да, «Лабрика» сама может подобрать список ключевых слов для анализа, но на этой стадии мне нужно отобрать наиболее важные коммерческие ключи с хорошей частотностью. Keys.so это умеет.

А теперь переходим в labrika.ru. Заводим новый проект: выбираем поисковые системы для анализа, количество страниц для сканирования и анализа, важнейшие ключевые слова для оценки видимости – и можно запускать. Для экспресс-аудитов я всегда использую полный анализ для тысячи страниц и примерно пяти ключевиков. В рамках экспресс-аудита таких данных для меня достаточно. Если будут выявлены какие-то аномалии – используем дополнительные средства.

Ну, и разумеется, надо оценить настройки и возможности хостинга. Для этого я использую webpagetest.org. В качестве тестового сервера выбираю что-то поближе к России: Польша, Швеция или даже Германия. Много данных по "техничке" такого рода не понадобится, поэтому запускаем сервис в последнюю очередь.

Данные собраны, время их оценить.

Хостовые факторы

labrika.ru показывает нам, что домену почти 8 лет – отлично, не должно быть каких-то проблем с «песочницами». Сервер расположен в РФ, Санкт-Петербург: это снижает шансы нарваться на штрафы и блокировки со стороны РКН, все данные пользователей должны храниться на территории России. NS - reg.ru, что тоже неплохо, хотя я не очень люблю этого хостера по личным причинам.

Оцениваем состояние сервера. Первичный отклик (TTFB) составляет 1 секунду, что минимум в 2 раза превышает рекомендуемое время. Фактически, едва ли это серьезно влияет на ранжирование, но клиента стоит о таком уведомлять: сервер явно не самый быстрый. Кроме того, это "звоночек" для аудитора: надо обратить внимание на стабильность работы сайта.

webpagetest.org: оцениваем быстродействие
webpagetest.org: оцениваем быстродействие

Настройки сканирования

Число страниц, доступных для индексации незначительно отличается от количества страниц в индексе как Яндекса, так и Гугл. Уже неплохо: большая разница чаще всего означает проблемы с недостаточно качественными страницами, проблемами со сканированием или того хуже – фильтрами одной из поисковых систем. В любом случае, если разница в количестве страниц в индексе – в полтора раза и больше, это чёткий сигнал аудитору: есть выраженные проблемы.

Смотрим на данные Screaming Frog – и вздрагиваем: за время сканирования сайт отдал 730 500-х ошибок. Таких ошибок быть вообще не должно, они свидетельствуют о серьёзнейших проблемах с сервером, от обычной нехватки системных ресурсов до «сервер в обмороке по непонятным причинам».
Примечание. Технические ошибки были обусловлены работами на сервере и носили временный характер. Такие пункты стоит периодически перепроверять.

Смотрим в данные «Лабрики» по доступности сайта для разных User-Agent: тут у нас порядок, сайт не закрыт для поисковых роботов и различных версий браузеров. Почему это важно? – Только за пару недель в марте ко мне обращались за аудитом люди, потерявшие в трафике. Анализ показал, что сервер блокировал поисковых ботов. Всё просто: владельцы сайта обнаружили бототрафик и испугались негативных последствий. И надёжно заблокировали ботов вообще, а людям стали показывать капчу.

Пример блокировки сайта для некоторых поисковых ботов. Без "Лабрики" я бы этого не узнал.
Пример блокировки сайта для некоторых поисковых ботов. Без "Лабрики" я бы этого не узнал.

Проводя аудит, вы должны убедиться, что все целевые браузеры и поисковые боты могут получить доступ к сайту. Вручную и быстро вы этого не сделаете, а «Лабрика» – запросто.

Ссылочный профиль

Для оценки ссылочного профиля «по-быстрому» я использую SEO SpyGlass. Это десктопное приложение - самое то, чтобы быстро получить достаточный объём информации о ссылках на сайт. Минута – и вы видите список доменов, количество ссылок, общую динамику и ряд характеристик.

SEO SpyGlass за минуту покажет вам базовую информацию по ссылкам анализируемого сайта
SEO SpyGlass за минуту покажет вам базовую информацию по ссылкам анализируемого сайта

Для углубленной работы со ссылками стоит использовать что-то более фундаментальное (тот же AHREFS), в рамках экспресс-аудита достаточно возможностей SEO SpyGlass.

Что же мы видим по проверяемому сайту? Как таковым масштабированием ссылочного профиля стали заниматься буквально квартал назад, но возможно, что речь о действительно органических ссылках. «Мусорных» ссылок почти нет, но проработке ссылочного явно стоит уделить немного времени и бюджетов.

Примечание. Я не уделяю большого внимания качеству доноров, если речь идёт о рунете. В настоящее время продвижение ссылками в худшем случае может быть бесполезным (если вы плохо отбираете доноров и не разбираетесь в линкбилдинге). «Минусинск», кажется, уже стал историей. Однако ничто не мешает Яндексу повторить, и это надо учитывать.

Семантика и структура

А вот с видимостью сайта в поиске диагностируются явные проблемы. Сайт получает большое количество трафика по информационным и нерелевантным запросам, связанным с дубляжом фильмов, рекламных роликов и т.п. Кто озвучивал Железного Человека? Кто снимался в "Дьявол носит Прада"? Да, такие запросы, теоретически, можно конвертировать хотя бы частично. Но в ряде случаев они могут работать против сайта: высокая активность посетителей в информационном разделе – выраженный сигнал для поисковых систем, что этот раздел намного важнее раздела услуг.

SEO-аудит по-быстрому: инструменты и принципы

Вывод напрашивается простой: нужно либо прикрывать такие страницы от индекса, либо оптимизировать их таким образом, чтобы они передавали свой «вес» коммерческим посадочным страницам. В рамках экспресс-аудита конкретные рекомендации давать преждевременно, нужен дополнительный анализ. Ставим галочку.

Время оценить текстовые характеристики коммерческих посадочных страниц. Для экспресс-аудита можно использовать старый-добрый ru.megaindex.com. Результаты вы получите практически мгновенно, и платить за это не придётся.

Берем запрос «заказать аудиорекламу». Общую релевантность странички запросу сервис оценивает всего в 54%. Сравнение с медианными данными по топу Яндекса показывает выраженные аномалии в количестве вхождений слова «ролик», «аудиоролик» и «дикторы». Переспам, надо серьезно проредить зону SEO-текстов и отдельных шинглов.

Анализ текстовых характеристик посадочной страницы под заданный запрос в сервисе Megaindex
Анализ текстовых характеристик посадочной страницы под заданный запрос в сервисе Megaindex

Кроме того, видно, что объёмы страницы примерно в 3 раза больше объёма текста у конкурентов в топе. Нужен ли там весь этот текст? Вероятно - нет. Как минимум, стоит использовать для анализа карты прокруток и дочитываний в Яндекс-Метрике. И конечно, сильно проредить избыточный текстовый контент.

Screaming Frog SEO Spider способен сгенерировать вот такое облако ключевых слов по заданному адресу. Как видим, тут самые заметные ключи несколько отличаются от подразумеваемых.
Screaming Frog SEO Spider способен сгенерировать вот такое облако ключевых слов по заданному адресу. Как видим, тут самые заметные ключи несколько отличаются от подразумеваемых.

Для более точного анализа семантики постранично стоит использовать текстовый анализатор just-magic.org. Принцип его работы немного отличается от анализатора Megaindex: вы берете список самых важных запросов кластера, задаёте адрес странички – и получаете список отклонений вашей страницы от сайтов в топе. В чём разница? – Вы работаете с группой запросов, а в результатах видите число как общих вхождений, так и прямых. Но в рамках экспресс-аудита такой анализ избыточен.

Таблица со списком аномалий по вхождениям ключей в различные зоны текста из сервиса Just-magic.org
Таблица со списком аномалий по вхождениям ключей в различные зоны текста из сервиса Just-magic.org

Коммерческие факторы ранжирования

«Лабрика» – наверное, единственный из существующих сервисов рунета, позволяющий хотя бы примерно оценить список коммерческих факторов в сегменте и степень их важности. Делается это на базе всё той же статистики по топам. Вам наглядно покажут, на что смотреть и что есть у сайтов в топе.

Фрагмент блока "Коммерческие факторы" в labrika.ru
Фрагмент блока "Коммерческие факторы" в labrika.ru

Это удобно, хотя и подразумевает, что вам нужно открыть сайт и поискать указанные характеристики «вручную».

Почему это важно? – Google обращает на факторы E-A-T пристальное внимание уже 2 с лишним года. Яндекс же стал ужесточать требования с марта 2021. И предполагаю, что в отличие от Google действовать он будет намного жёстче. Вебмастера сайтов в сфере медицины, финансовых и юридических услуг уже ощутили это непосредственно на своих доходах. Дойдёт очередь и до интернет-магазинов и сайтов услуг, и вероятно, уже совсем скоро.

Резюме и точки роста

Время делать выводы. Сайт активно растёт в поиске, неплохо оптимизирован технически (если не брать временную проблему с сервером) и имеет хорошую видимость.

Основные проблемы:

  • Техническое состояние хостинга (решается техподдержкой хостинга или его сменой);
  • Основной трафик – некоммерческий. Наиболее частотные запросы связаны с информацией о мультфильмах, дубляже кино, дикторах и т.п. По коммерческим запросам сайт имеет достаточно высокую видимость в Яндексе, однако существенно меньшую – в Google.
  • Структура посадочных страниц неоптимальна (избыточные тексты, переспам по нецелевым ключевым словам), однако это характерно для заданного сегмента рынка в целом.

Получить буст по видимости сайта в обеих поисковых системах можно следующими способами:

  • Подробной проработкой семантики постранично (на коммерческих страницах) с использованием техник структурирования и вёрстки по тем же принципам, что и на сайтах интернет-магазинов и услуг. Для примера: отдельные типы аудиороликов можно оформить как вспомогательные посадочные страницы с выводом ссылок на них на общей странице. Сейчас они оформлены исключительно как информационные блоки. Примечание. Добавление новых посадочных страниц возможно только в соответствии с реальной поисковой семантикой. Если нет реального поискового спроса – страница не нужна, либо должна быть закрыта от индекса.
  • Структура сайта значительно «раздута» в сравнении с сайтами конкурентов. Объём достигается за счёт информационных страниц с высокой частотностью запросов, а также за счёт множества вспомогательных страниц. Нужно учитывать, что актуальные алгоритмы поисковых систем могут фильтровать сайты, содержащие слишком высокий процент страниц, не привлекающих самостоятельного трафика. Рекомендуется провести общий анализ входящего трафика на открытые для индексации страницы. Страницы с нулевым трафиком лучше закрыть от индексации либо доработать (если возможно).

Значительных мероприятий по поисковому продвижению сайт не требует: в этом сегменте большое значение имеет брендовый (витальный) трафик, связанный с выбором вполне определенных студий. Количество запросов коммерческого характера невысоко, и чаще всего эти запросы имеют отношение к сегменту b2b. В настоящий момент по сайту проведены достаточно эффективные работы в рамках поисковой оптимизации, нужны только небольшие доработки технического и текстового характера.

Общие выводы

Интернет меняется, а с ним – и требования поисковых систем к сайтам. Старые чек-листы, основанные на допотопных критериях оценки сайтов и веб-сервисы, опирающихся на эти чек-листы, должны уйти в прошлое. Да, алгоритмы поисковых систем в основном масштабируются: то, что было важно десять лет назад, всё ещё имеет значение. Однако для диагностики основных проблем и определения точек роста специалисту стоит использовать инструменты, максимально адаптированные к современным условиям.

Чтобы понять, в чём состоят проблемы сайта и где его точки роста, нужны актуальные данные и специалист, способный их адекватно интерпретировать. Универсального сервиса, объединяющего эти условия, не существует. Однако сейчас хватает веб-сервисов для проведения SEO-аудитов, способных предоставить вам такие данные. Не зацикливайтесь на привычных инструментах, время обновить свой рабочий арсенал.

4545
36 комментариев

Все ждал, когда все-таки Виктор ссылку бахнет на свои услуги и сайт)
💪🏻

1
Ответить

Если бы я этого не сделал - я выглядел бы легкомысленным. И ощущал себя неловко даже перед поисковыми роботами.

2
Ответить
1
Ответить

Во имя SEO, и SEMа и святаго трафа, аминь!

4
Ответить

Классная статья. Тоже много аудитов проводил, некоторые инструменты не знал вовсе или знал, но не считал их полезными.

Не согласен только с PageSpeed и беглым анализом ссылочной массы. Необязательно, что там будут данные, полезные для аудита, но найти там крупный косяк (например, скорость 100 из 100 сделанную с помощью обманки или резкий рост ссылок, грозящий санкциями) всё ещё можно, пусть это и один случай на сотню.

За описание и особенности применения актуальных сервисов отдельное спасибо.

1
Ответить

Скачки в ссылочном профиле я отслеживаю - тут хотя бы просто понимать, занимались ли сайтом или нет. А вот что касается качества - я сам долго дул на воду, памятуя "Минусинск". Особо смешно было на паре проектов, конкурентов которых я знал. Там было идентично почти всё, кроме сайтов и команд оптимизаторов.
Пока я по заветам Яндекса "делал сайт лучше и даже ещё лучше" конкуренты просто закупались самыми мусорными ссылками. По итогам: сейчас кривульки роста видимости в Яндексе и Гугле у сайтов примерно одинаковые, но у конкурентов кривулька - существенно выше, и расти начала раньше. Выводы просты и печальны.
На скриншоте всё видно (синенькие - мои).

1
Ответить

Очень хороший материал, от себя вставлю про беклинки, использую бота по ahrefs для проверки беков конкурентов https://cutt.ly/Bv8LL0E (рефка). Про лабрику не знал, надо затестить

1
Ответить