{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Клиентские заблуждения в базовых вопросах SEO. Лонгрид с опросами

В статье приведены заблуждения клиентов по вопросам оптимизации сайтов, с которыми я столкнулся в ноябре 2021. Это: использование rel=canonical; генерация sitemap; отображение расширенных сниппетов и особенности «Яндекс.Турбо-страниц».

В Search Console собирается статистика только для страниц rel=canonical

Клиент в этом утверждении сослался на статью на русском, где констатируется факт:

"С 10 апреля Search Console начнет присваивать данные отчета об эффективности той странице, которую Google считает канонической"

В статье не содержится никакой фактической ошибки и она почти полностью соответствует оригиналу. Но клиент прочитал статью и прямолинейно понял для себя, что каноническая страница та, для которой установлен rel=canonical.

Здесь важно понимать, что характеристика страниц "канонические" употребляется в 2х смыслах:

  • в прямом смысле, когда для страницы задан "rel="canonical"
  • в смысле оригинальности страницы. оригинальная страница = каноническая страница

В релизе сказано о том, что все данные объединяются по каноническому адресу страницы, которую выбрал Google. (Google-selected pages). Приведём прямой перевод самой важной части из этой статьи в оригинале:

"Как это повлияет на мои данные?
На уровне отдельного URL-адреса вы увидите смещение трафика с любых неканонических (повторяющихся) URL-адресов на канонические.

...Для большинства пользователей большая часть данных на уровне свойств будет перемещена в одно свойство. Трафик AMP-ресурса в большинстве случаев упадет до нуля (кроме самоканонических страниц).

Вы по-прежнему сможете фильтровать данные по устройству, виду поиска (например, AMP), стране и другим параметрам, не теряя при этом важную информацию о своем трафике. Вы можете увидеть несколько примеров этих изменений трафика ниже."

Основные примеры, которые приводит Google, это AMP и мобильные версии страниц.

Т.е. У вас на сайте две версии страниц: https://site.ru и https://m.site.ru данные по этим страницам отображаются только для оригинальной версии страницы https://site.ru.

Или AMP Т.е. У вас на сайте две версии страниц: https://site.ru и https://site.ru/amp/ данные по этим страницам отображаются только для оригинальной версии страницы https://site.ru.

Проверить каноничность страниц можно испектором URL. Данные об эффективности продолжают собираться для канонических страниц. "каноническая" = "оригинальная" = "Google-selected".

Опрос 1.

Оптимизируя сайты, вы:
Проставляете rel=canonical всем страницам "саму на себя"
Проставляете rel=canonical только для страниц с дублями
Не используете rel=canonical
Показать результаты
Переголосовать
Проголосовать

Атрибут rel=canonical отлично подходит для оптимизации страниц сортировки.

Данное утверждение возникло в процессе проработки каталога. В каталоге были представлены листинги на ЧПУ-URL, однако после доработки появился ряд страниц с Get-парметрами. Get-параметр добавлялся в URL при использовании сортировок (по цене, новизне и.т.д). Клиенту был предложен следующий вариант:

Реализовать сортировку без перезагрузки страницы. Сортировка должна осуществлять в рамках той же страницы, на которой находится пользователь, с помощью js. Без перехода на страницу с get-параметром. Контент будет перегружаться внутри страницы, а URL адрес страницы никак не будет изменяться.

Ответный комментарий от клиента:

Проблема решается по-другому: вам следовало бы использовать canonical для страниц сортировки.

Объясню свою позицию. Я совсем не против использовать canonical, как решение. Однако его использование сопряжено с некоторыми особенностями. И мы предложили клиенту ознакомится с плюсами и минусами обоих решений и выбрать самому.

Реализация в рамках одной страницы без перезагрузки:

Плюсы:

  • Отсутствие дублей
  • Отсутствие канониклов
  • Экономия краулингового бюджета
  • Поведенческие в рамках одной страницы

Минусов нет. Это лучшее решение насколько мне известно (если считаете иначе, поучаствуйте в опросе ниже).

Особенности варианта оптимизации с использованием rel=«canonical»

Плюсы:

  • Отсутствие дублей в выдаче

Минусы:

  • Увеличиваются затраты краулингового бюджета
  • Для того, чтобы canonical работал, контент должен быть признан роботом как дублирующийся. А может быть и не признан
  • Canonical не создан для работы с динамическими параметрами. Canonical - упрощённый инструмент. Для опытных пользователей инструмент
  • Каноникал не запрещает страницы к индексации, а robots может игнорироваться
  • Поведенческие факторы и статистика с данных страниц будут неполными и неточными

Может быть реализован любой из предложенных вариантов. Но предлагать заведомо худший вариант, мне кажется, от меня ждут такого в последнюю очередь.

Опрос 2.

В приведённом примере вы бы сделали:
Сортировку в рамках одной страницы, без Get-параметров
Простановку canonical для страниц с Get-параметрами на оригинальную страницу
Canonical для страниц с Get-параметрами, как временное решение, и параллельно реализовали сортировку в рамках одной страницы
Показать результаты
Переголосовать
Проголосовать

При генерации sitemap.xml используются правила robots.txt

Одним из камней преткновения стал вопрос о генерации sitemap.xml. Ранее заказчику было предоставлено ТЗ на генерацию sitemap, которое было реализовано с ошибками. После чего была проведена промежуточная проверка и дан ряд рекомендаций по исправлению ошибок карты сайта.

Ответный комментарий от клиента:

Мы ожидали получить совсем не это. Нам нужен перечень правил для формирования карты в общем виде.

В общем виде? Я подумал, что это может значит и отдал файл с общим описанием логики sitemap с вложенной структурой.

Позже клиент объяснил, что это тоже не то, что он хочет, а нужен ему перечень правил, в пример он привёл 2 правила:

В файл не должны попадать закрытые от индексации страницы, файл должен формироваться по правилам robots.txt и т.д.

Как мне кажется, если бы клиент продолжил писать эти правила, то перечень выглядел бы так:

файл не должен содержать закрытые страницы, не должен содержать закрытые страницы в robots.txt, закрытые страницы тегами "meta name="robots.txt", закрытые страницы в теге "noindex".

Понятно, суть, чтобы закрытые страницы не попали в карту. И дело тут в том, что сайт содержит 1 раздел полностью закрытый от индексации. Правило о невключении страниц данного раздела было указано во всех версиях ТЗ. А для клиента я сделал уточнение, что sitemap не может формироваться по файлам из robots. Т.к. sitemap апеллирует ссылками на html-страницы, а robots правилами для файлов.

В этом случае, клиенты нас не услышали и в результате поставили в работу наш файл с дополнениями "от себя", которые не имеют никакого отношения к страницам сайта. Надеюсь, разработчиков это не смутит.

Опрос 3.

Сталкивались ли вы с тем, что ожидания заказчика не совпадают с реальной работой по SEO?
Сталкиваюсь постоянно, из этого состоят мои будни
Не сталкиваюсь
Сталкиваюсь, ограничиваюсь пояснениями
Показать результаты
Переголосовать
Проголосовать

Только Турбо-страницы обеспечивают расширенный сниппет с галереей товаров

В цели краткосрочного плана продвижения клиент попросил нас внести "формирование расширенного сниппета с галереей товаров".

Один из маркетологов нашего клиента заверил, что он не раз реализовывал данные функционал на предыдущих своих проектах. Для этого всего лишь нужно подключить Турбо из технологий Яндекса. Ссылался маркетолог на справку Вебмастера. Где сказано:

Чтобы галерея товаров формировалась, необходимо подключить Турбо-страницы для интернет-магазинов или загрузить товарный фид в кабинете в Яндекс.Маркете

Следуем данной логике. Однако Я.Маркет для автомобильного сайта не подходит. Остаётся подключение Турбо-страниц для интернет-магазинов. Но не торопитесь подключать Турбо-страниц для получения расширенных сниппетов:

  • В поиске будут Турбо-страницы, уступающие по функционалу и контенту оригинальным страницам
  • Турбо-страницы не гарантируют формирования расширенных сниппетов
  • Турбо-страницы имеют типовой функционал (с корзиной и покупкой в 1 клик)
  • Турбо-страницы без вывода рекламы имеют свойство вызывать ошибку неоптимизированности под мобильные

Чтобы избавить себя от проблем при продвижении, а заказчика от потери конверсий на продвигаемых страницах было предложено обратить внимание на инструмент от Яндекс «Источники данных о товарах и предложениях».

Фактически, это обновлённый инструмент «Товары и предложения», который с помощью расширенных сниппетов выводил информацию о названиях, наличии и ценах на товары.

Сейчас с помощью манипуляций в этом фиде с большой вероятностью успеха можно выводить расширенный сниппет с галерей товаров без подключения Турбо-страниц.

Опрос 4.

Вы уже сделали расширенные сниппеты с галереями товаров в Яндекс:
Да
Нет
Я не уделяю время технологиям Яндекс
Показать результаты
Переголосовать
Проголосовать

Яндекс Турбо-страницы не участвуют в поиске вместо оригинальных страниц

Здесь коротко:

Турбо-страницы, в первую очередь, рекламный инструмент Яндекс. Верстка Турбо-страниц подразумевает вывод блоков рекламой площадки ADFOX. Вот типовые рекомендации для Турбо-страниц - первые 3 рекомендации касаются исключительно рекламы.

В десктопной выдаче будет отображаться оригинальная страница (Яндекс отключил beta-показ Турбо-страниц на десктопе).

Но в мобильной выдаче останутся только Турбо-версии.

Кроме того, если будет принято решение отключить Турбо версии страниц, на это уходит от 1 до 4х дней.

Опрос 5.

У вас был опыт по созданию турбо-страниц?
Да. создавал. Эти Турбо-страницы сейчас в поиске
Да, создавал, но вовремя всё для себя понял. Отключил Турбо-страницы
Не создавал
Показать результаты
Переголосовать
Проголосовать

Успешные проекты не создают региональные поддомены

Последний тезис, который мы разберём на сегодня. Во-первых, он достаточно справедлив. Во-вторых, есть тонкости, которые, действительно, могут повлиять на принятие решения в пользу поддоменов или напротив.

Для того, чтобы понять особенности структуры сайтов с точки зрения SEO и эффективности регионального продвижения нужно рассмотреть несколько примеров.

Допустим, примеры 2 федеральных проектов. Как Спортмастер и М.видео. И ещё 2 любых проектов с региональными поддоменами, которые вам известны.

М.видео и Спортмастер в своей структуре не используют поддомены для вывода контента. Однако, логика сайтов выстроена также. У федеральных компании, у которых охват все регионы России, использовано такое же региональное разделение, но на уровне внутренних настроек.

В поиске пользователь видит тот же домен , но при переходе происходит идентификация пользователя по кукам и гео. Таким образом, зрительно вы посещаете тот же сайт, но региональное подразделение, от которого происходит наполнение сайта. Понять это можно, посетив страниц Контакты или начав оформлять заказ.

На сервере таких сайтов хранятся данные о магазинах, доставке и других условиях для разных городов России.

Предположим, 50 регионов = 50 разных вариаций точек самовывоза = 50 разных страниц.

В каком виде страницу отдавать пользователю решает сервер, когда видит местоположение пользователя.

Каталог, наполнение и функционал одинаковый, поэтому и выглядит, что страница одна и та же. Но загружаются на страницу элементы, зависящие от региона. По бизнес-логике. Это магазины, контакты, карты, условия доставки и прочее.

Особенности структуры внутри одного домена:

· Нужна серверная настройка. Чтобы пользователю моментально отдавались данные по его региону. (С перезагрузкой той же страницы, где находится пользователь).

· Решение актуально только для компаний с сильным брендом.

· Решение актуально, если компания федеральная, то есть охват Россия

· Решение подходит для интернет-магазинов, сайтов без контентной части

Обоснование технического решения

Сильный бренд с федеральной сетью может позволить себе продвижение под одним доменом.

Почему? Все оффлайн точки продаж на картах (в Яндекс и Google) привязаны на основной сайт.

Таким образом, домен приобретает региональность везде, где он представлен.

Логика поиска: Если у вас 5-10 оффлайн точек продаж в регионе, то вы представлены в регионе, вас можно высоко ранжировать.

Сайты, уступающие по охвату регионов или менее известные стремятся реализовать региональные подразделения.

На примерах сайтов с региональными поддоменами, вы увидите, что для них характерна развитая сеть поддоменов. У этих компаний небольшое количество оффлайн точек продаж.

В поиске участвуют региональные страницы сайтов. Как это работает? Для каждого региона создаются отдельные версии страниц, которые оптимизируются под регион.

Логика регионов разделена заранее и размещена с помощью поддоменов.

Особенности структуры внутри одного домена:

· Продвижение поддоменов для каждого региона в отдельности

· Необходимость создания функционала по уникализации страниц

· Требует трудозатрат для поддержания

· Возможность размещение уникального контента и страниц

Обоснование технического решения

Основной фактор продвижения – региональность. География оффлайн точек важна при присвоении того или иного региона ресурсу. В Яндекс.Вебмастере и Google Search Console каждому поддомену присваивается свой, единственный в своем роде, регион. Что объясняет высокие позиции сайтов, не имеющих при этом сильного бренда. Легко расширять структуру.

Опрос 6.

Вы анализировали региональные структуры сайтов и пришли к выводам
Лучше делать подпапки и оптимизировать страницы подпапок
Лучше делать поддомены и продвигать их
Лучше всё делать на одном домене
Всё зависит от компании и сайта
Показать результаты
Переголосовать
Проголосовать
0
Комментарии
-3 комментариев
Раскрывать всегда