Техническая оптимизация сайта — часть вторая

Пошаговый план от руководителя оптимизаторов в «Ашманов и партнёры» Никиты Тарасова.

В первой части мы разобрали, как оптимизировать URL-адреса, корректировать robots.txt, находить и удалять дубли страниц и так далее. Теперь переходим от базовых шагов к действиям, касающимся в основном качества работы сайта.

Во второй части я расскажу про:

  • Улучшение скорости загрузки сайта.
  • Проверку оптимизации под мобильные устройства.
  • Оптимизацию страниц пагинации.
  • Поиск и устранение битых ссылок и редиректов.
  • Внедрение микроразметки.
  • Использование тега meta name="robots" content="…".
  • Распределения ссылочного веса по страницам сайта.
  • Использование тега noindex.
  • Внутреннюю перелинковку.
  • HTML- и XML-карты сайта.
  • Оптимизацию HTML-кода.
  • Внедрение турбо-страниц и AMP.
  • Создание progressive web apps (PWA).
  • Оптимизацию изображений.
  • Требования к хостингу с точки зрения SEO.

Улучшение скорости загрузки сайта

Низкая скорость загрузки отрицательно влияет на удобство сайта, снижает конверсию и поведенческие показатели. Поэтому для пользователей и для поисковых систем одинаково важно, чтобы сайт работал быстро.

Сервис PageSpeed Insights помогает оценить скорость загрузки любой страницы сайта и подсказывает, как улучшить показатели.

Другие способы ускорить сайт:

Оптимизация под мобильные устройства

С внедрением mobile-first indexing Google отдаёт приоритет сайтам, оптимизированным под мобильные устройства.

Это относится к аудитории Google во всем мире, поэтому наличие адаптивной верстки необходимо для ранжирования в поисковой системе.

Представители «Яндекса» также заявляли, что учитывают в ранжировании мобильную версию сайта (алгоритм «Владивосток»).

Проверить, насколько хорошо сайт адаптирован к мобильным устройствам, можно в «Яндекс.Вебмастере» или в Google Search Console.

Массово проверить страницы на оптимальную скорость работы и на оптимизацию под мобильные устройства помогут инструменты от A-Parser и Screaming Frog.

Что касается того, какой способ адаптации выбрать, рекомендую прочитать колонку «Мобильный сайт или адаптивная вёрстка: что лучше с точки зрения SEO».

Оптимизация страниц пагинации

Страницы пагинации составляют львиную долю в структуре большинства сайтов. Вопрос в том, нужно ли их оптимизировать и как это делать правильно. Мой коллега Дмитрий Мрачковский очень подробно рассуждал на эту тему в одной из колонок.

Я же приведу несколько практических рекомендаций, которые регулярно использую в работе.

Использование атрибута rel=”canonical”

«Яндекс» рекомендует проставлять тег rel=”canonical”. Со второй и последующих страниц пагинации, например, http://domain.ru/category/?PAGEN_1=2 необходимо проставить тег rel=”canonical” на первую страницу.

На странице http://domain.ru/category/?PAGEN_1=2 с учетом рекомендаций в разделе <head>…</head> будет размещена следующая конструкция:

<link rel="canonical" href="http://domain.ru/category/"/>

Формирование мета-тегов

Мета-теги title и description для страниц пагинации следует формировать по следующему шаблону:

<title>h1 - страница N из page_last</title>
<meta name="description" content=""/>

При этом h1 должен совпадать с тегом <H1>.

Page_last — указывает на суммарное число страниц в разделе.

Пример для страницы https://www.domain.ru/catalog/category/?PAGEN_1=2:

<title> Категория - страница 2 из 201</title>

На второй и последующих страницах пагинации мета-тег description выводиться не должен.

Вывод описаний

На второй и последующих страницах пагинации не стоит выводить текст с описанием, который есть на первых страницах.

Пример некорректного вывода текста на странице https://domain.ru/kuhonnye-divany/?page=2.

Не скрывайте текст на второй и последующих страницах пагинации с помощью стилей (display:none). Исключайте его из кода этих страниц.

Поиск и устранение битых ссылок и редиректов

«Битые» ссылки, ведущие на несуществующий сайт, страницу или файл, снижают уровень удобства сайт. Когда посетитель вместо нужной информации видит 404 ошибку, он теряет доверие к сайту. Поисковые системы также не любят битые ссылки.

Для поиска таких ссылок рекомендую использовать Screaming Frog Seo Spider

  • В режиме "Spider" запускаем сканирование сайта и дожидаемся его завершения.
  • Далее выгружаем отчет Bulk Export — Response Codes — Client Error (4xx) Inlinks, где Source — ссылающаяся страница, Destination — адрес некорректной ссылки, а Anchor — анкор.

Что касается редиректов, то у «Яндекса» на этот счёт есть подробное руководство. Если коротко, редирект может быть полезен только в том случае, если адреса страниц меняются по техническим причинам и необходимо перенаправить пользователя на новый адрес страницы. В остальных случаях редиректы лучше избегать.

Для поиска редиректов на сайте рекомендуется использовать Screamin Frog Seo Spider

  • В режиме "Spider" запускаем сканирование сайта и дожидаемся его завершения.
  • Далее выгружаем отчет Bulk Export — Response Codes — Client Error (3xx) Inlinks, где Source — ссылающаяся страница, Destination — URL страницы с редиректом, Anchor — анкор.
  • Выгружаем отчет Response Codes — Redirection (3xx).
  • Для указания URL конечной страницы используем функцию ВПР =ВПР(B2;'[response_codes_redirection_(3xx).xls]1 - Redirection (3xx)'!$A:$J;9;ЛОЖЬ). В столбце I как раз конечный URL.
  • Далее сохраняем данные в таблице как обычные значения.

Внедрение микроразметки

Микроразметка делает сайт понятнее и помогает поисковым системам извлекать и обрабатывать информацию для представления в результатах поиска.

«Яндекс» подтверждает косвенное влияние микроразметки на ранжирование сайта. Добавление микроразметки также положительно влияет на отображение сниппетов в Google.

Для корректной настройки структурированных данных рекомендую использовать инструмент «Мастер разметки структурированных данных» в Google Webmaster Tools. И валидатор микроразметки в «Яндекс.Вебмастер».

Ниже приведу наиболее распространенные типы микроразметки.

Видео

Этот тип микроразметки служит для улучшения представления видеоматериалов в результатах поиска. О нем подробно написано в руководстве «Яндекса».

Отзывы

Этот тип разметки позволяет выводить в результатах поиска количество отзывов и рейтинг товара, что положительно влияет на кликабельность результатов в выдаче.

Элементы навигации

Строка навигации представляет собой цепочку ссылок, которая иллюстрирует структуру сайта и помогает пользователям ориентироваться в ней.

Данные навигации, размеченные в «хлебных крошках» сайта, помогут Google лучше их идентифицировать и правильнее отобразить информацию страницы сайта в результатах поиска. Подробнее читайте в руководстве Google.

Изображения

Разметка информации об изображениях помогает улучшить представление изображений в сервисе «Яндекс.Картинки». Подробнее о данной разметке.

Разметка Open Graph для видео

Рекомендую дополнительно разместить видео с помощью разметки Open Graph. Это поможет видео корректно отображаться в соцсетях. Подробнее о разметке.

Социальные сети

Если добавить на сайт специальную разметку, ссылки на профили компании в соцсетях будут появляться в блоке знаний Google и пользователи смогут открывать их прямо из «Поиска».

Пример кода для внедрения:

<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "Person",
"name": "Рога и копыта",
"url": "https://www.domain.ru/",
"sameAs": [
"https://twitter.com/domain",
"https://www.facebook.com/domain",
"https://vk.com/domain",
"http://instagram.com/domain",
]
}
</script>

Сведения об организации

Внедрение микроразметки элемента «Организация» позволит улучшить отображение сниппета сайта в поисковой выдаче (работает совместно с информацией из «Яндекс.Справочника»).

Использование тега meta name="robots" content="…"

Этот тег аналогичен по своему назначению файлу robots.txt и позволяет указывать поисковым роботам, какие страницы индексировать, а какие — нет. Ниже приведу выдержку из руководства «Яндекса», описывающую функциональные возможности тега:

  • <meta name="robots" content="all"/> — разрешено индексировать текст и ссылки на странице, аналогично <meta name="robots" content="index, follow"/>.
  • <meta name="robots" content="noindex"/> — не индексировать текст страницы.
  • <meta name="robots" content="nofollow"/> — не переходить по ссылкам на странице.
  • <meta name="robots" content="none"/> — запрещено индексировать текст и переходить по ссылкам на странице, аналогично <meta name="robots" content="noindex, nofollow"/>.

Весь перечень доступных атрибутов для данного тега можно найти в официальных справках поисковых систем.

Стоит провести проверку сайта (например, при помощи Screaming Frog Seo Spider) на предмет запрета индексации страниц через данный тег. В случае если часть продвигаемых страниц запрещена для индексации — следует скорректировать данный тег.

Оптимизация распределения ссылочного веса по страницам сайта

Ссылочный вес — показатель, который формируется из количества страниц, ссылающихся на оцениваемый URL сайта (входящих ссылок), и количества ссылок, ведущих со ссылающихся страниц (исходящих ссылок).

Правильное распределение ссылочного веса помогает подчеркнуть важность определённых страниц сайта в его структуре и улучшить ее оценку со стороны поисковых систем. Это помогает ускорить индексацию и улучшить ранжирование выбранных страниц.

Для оптимизации распределения ссылочного веса на сайте необходимо снабдить часть ссылок атрибутами rel=”nofollow”. Это необходимо сделать для ссылок, которые ведут на страницы, закрытые от индексации в robots.txt.

Например, ссылки с вариантами сортировки товаров по цене, популярности и так далее.

Использование тега noindex

Сразу замечу, что тег воспринимается только поисковой системой «Яндекс», Google его не поддерживает.

Конструкция noindex используется для закрытия от индексации дублирующихся и служебных участков текста.

Для валидности кода необходимо использовать конструкцию вида:

<!--noindex-->код<!--/noindex-->

Например, стоит закрыть от индексации блоки с инфографикой, дублирующиеся на всех страницах.

Внутренняя перелинковка

Перелинковка внутренних страниц сайта способна повышает эффективность продвижения. Когда мы устанавливаем активные гиперссылки на продвигаемые страницы, то увеличиваем их ссылочный «вес».

Добавление «хлебных крошек»

Чтобы упростить навигацию на сложных сайтах, есть старый прием, получивший название «хлебных крошек»: в верхней части страницы располагается навигационная строка, содержащая ссылки вверх по структуре сайта.

Пример реализации: Главная / Каталог / Категория / Подкатегория.

Навигационная цепочка должна соответствовать следующим пунктам:

  • Цепочка расположена на всех страницах сайта кроме главной (корневой каталог).
  • Данный элемент навигации следует разместить вверху страницы, непосредственно над или под заголовком h1.
  • Хлебные крошки не должны дублироваться на странице.
  • Ссылками должны являться все пункты, за исключением текущего (последнего).

Элемент «Хлебные крошки» имеет следующие преимущества:

  • Страницы сайта, находящиеся выше в иерархической структуре, обеспечиваются ссылочным весом с помощью внутренних ссылок с других страниц сайта.
  • Это позволяет обеспечить более эффективное продвижение страниц, релевантных ключевым запросам.
  • Пользователю сайта более понятна его структура, проще ориентироваться на сайте. Это ценно в том случае, если пользователь попадает на внутреннюю страницу сайта напрямую из поиска.

Блок перелинковки для страниц карточек товаров

Внутреннюю переликновку, особенно для интернет-магазинов и сайтов услуг, можно осуществлять не только за счет гиперссылок в текстах, но и за счет блоков с товарными рекомендациями.

Подобная реализация не только позволит более равномерно распределить ссылочный вес, но и поможет улучшить поведенческие характеристики.

Некоторые СMS (например, Bitrix) позволяют выстраивать целые рекомендательные системы, использование которых может увеличить средний чек.

HTML- и XML-карты сайта

HTML-карта

HTML-карта сайта используется для помощи посетителям, чтобы было проще ориентироваться на сайте. Также карту используют, чтобы ускорить индексацию сайта поисковыми роботами и создать древовидную структуру, чтобы все страницы сайта были максимум в двух кликах от главной.

Стоит добавлять в HTML-карту только значимые и важные страницы. Например, ссылки на основные разделы, подразделы сайта.

Интернет-магазинам не стоит добавлять в HTML-карту ссылки на все товары. Особенно если товарный ассортимент измеряется сотнями или тысячами товаров.

Еще одним аргументом за использование ссылок только на основные разделы в HTML-карте является удобство ориентации пользователя на странице. Иначе крайне сложно найти какую-либо информацию на странице, содержащей сотни или тысячи ссылок.

Пример html-карты сайта​

XML-карта

XML-карта сайта является обязательным атрибутом активно продвигаемых веб-ресурсов. Для достижения наиболее полной индексации сайта www.domain.ru, настоятельно рекомендуется подготовить файл Sitemap и выложить его на сайт по адресу: http://www.domain.ru/sitemap.xml.

С помощью файла Sitemap можно сообщать поисковым системам о страницах сайта, которые доступны для индексации. Файл Sitemap представляет собой XML-файл, в котором перечислены URL-адреса сайта в сочетании с метаданными, связанными с каждым URL-адресом (дата его последнего изменения; частота изменений; его приоритетность в рамках сайта). Эти данные помогают поисковым системам оптимизировать процесс индексации сайта.

Отмечу, что карта сайта должна содержать ссылки только на значимые страницы, содержащие уникальный контент. Карта сайта не должна содержать:

  • URL-адреса, отдающие заголовки: 4хх, 3хх, 5хх (например, 500, 404, 301 или 302 и так далее).
  • Страницы, закрытые от индексации файлом robots.txt или мета-тегом <meta name="robots" content="NOINDEX, NOFOLLOW"/>.
  • Страницы-дубли, неинформативные или пустые страницы.
  • Sitemap может описывать только страницы того домена, на котором он расположен.

После того, как карта сайта будет создана, следует добавить в файл robots.txt, находящийся в корневой директории сайта, директиву Sitemap: http://www.domain.ru/sitemap.xml.

Директива сообщит поисковым роботам, где находится карта сайта.

Желательно, чтобы XML-карта сайта автоматически обновлялась хотя бы раз в сутки.

Оптимизация HTML-кода

Простой код без ошибок помогает поисковым роботам быстрее и без лишних препятствий индексировать сайт. Это положительно сказывается на ранжировании.

Рекомендую проверять на ошибки основные типы страниц сайта:

  • Главная — https://domain.ru/.
  • Категория/Подкатегория — https://domain.ru/catalog/category/.
  • Страницы карточки — https://domain.ru/product/name-product/.
  • Страница пагинации — https://domain.ru/catalog/category/.
  • Служебные страницы — https://domain.ru/page/.

Список шаблонов страниц может варьрироваться в зависимости от типа сайта.

Проверить сайт на отсутствующие и лишние теги можно при помощи сервиса FXN.

Также в идеале код не должен содержать большие закомментированные фрагменты, например:

Пример кода с закомментированным фрагментом

Внедрение турбо-страниц и AMP

На текущий момент у «Яндекса» и Google существуют две похожие технологии:

Они помогают ускорить загрузку контента, что положительно сказывается на удобстве сайта и поведенческих метриках.
Турбо-страницы и AMP обычно не содержат большинство вспомогательных элементов, включая виджеты, формы комментирования, блоки рекомендованного контента, рекламные объявления.

Несмотря на то, что есть решения, позволяющие создавать турбо-страницы и AMP для коммерческих ресурсов, я бы не рекомендовал использовать эту технологию для коммерческих страниц сайта, потому что есть риск ухудшить конверсию.

AMP и турбо-страницы хорошо работают на информационных ресурсах. Если у вас контентный проект или у вашего интернет-магазина есть блог или раздел со статьями, то ускоренные страницы внедрять однозначно стоит. Тем более, что с недавних пор «Яндекс» анонсировал отдельный колдунщик (блок) турбо-страниц для десктопной выдачи.

Внедрение турбо-страниц позволит сформировать привлекательный сниппет и привлечь дополнительный трафик из колдунщика.

​Пример сниппета при ипользовании турбо-страниц

Создание progressive web apps (PWA)

PWA — сайт, который можно добавить на главный экран телефона, и он будет работать в автономном режиме.

PWA обладает следующими преимуществами:

  • Google поднимает PWA значительно выше в поисковой выдаче. Также все прогрессивные веб-приложения работают по протоколу HTTPS, соответственно, Google также позитивно реагирует на это, поскольку наличие защищенного протокола является одним из факторов ранжирования в поисковой системе.
  • Кроссплатформенность Progressive Web Apps дает нам возможность делать одно веб-приложение, которое будет работать абсолютно на всех устройствах, где присутствует браузер.
  • Возможность продолжать работу с приложением при сбоях интернет-подключения и увеличенная скорость загрузки с помощью PWA обезопасит от утери потенциальных конверсий и от увеличения количества отказов.

Ниже приведены рекомендации по созданию PWA

Создать иконку приложения

Сайт будет располагаться на экране, а значит, нужна иконка. Сгенерировать иконку можно при помощи сервиса Firebase. Затем необходимо разместить иконки на сайте.

Разместить манифест

Manifest — это файл JSON, который описывает все метаданные вашего Progressive Web App. Такие атрибуты, как название, язык и значок вашего приложения. Эта информация укажет браузерам, как отображать ваше приложение, когда оно будет сохранено в виде ярлыка.

Полное описание всех свойств доступно по ссылке.

Далее следует загрузить полученный файл на сайт, внутри тега <body> разместить ссылку на JSON-файл. Проверить корректность созданного манифеста можно при помощи сервиса manifest-validator.appspot.com

Добавить service worker

Service Worker — это скрипт, работающий в фоновом режиме, который браузер может запускать даже тогда, когда пользователь не находится на вашей странице. Он предоставляет офлайновую поддержку и просыпается при получении уведомления.

Сгенерировать Service Worker можно при помощи этого сервиса.

Необходимо подключить service worker в шаблонах основных страниц, разместив следующий скрипт внутри тега <body>.

Также необходимо разместить файл pwabuilder-sw.js в корне сайта.

Тестирование

Проверить корректность работы PWA можно при помощи инструмента Lighthouse.

Оптимизация изображений

Чтобы получить дополнительный трафик из поиска по картинкам, рекомендуется настроить «псевдостатическую» адресацию для файлов изображений.

При настройке «псевдостатических» URL изображений следует придерживаться нескольких простых правил:

  • Не допускать в URL-адресах использования специальных символов, таких как «?», «=», «&» и других.
  • Использование цифр в «псевдостатических» адресах допускается без ограничений.
  • В качестве разделителя слов в адресе рекомендуется использовать символ «-» (дефис).
  • Для формирования URL необходимо использовать транслитерированные ключевые слова, в точности соответствующие содержимому страницы. Файлы изображений, размещённых на страницах новостей и статей, рекомендуется называть по аналогии с URL страниц с добавлением слова «foto», а если изображений несколько, добавлять числовой идентификатор «foto-1», «foto-2», «foto-3» и так далее.
  • В адресах изображений следует использовать только строчные латинские символы, не кириллицу.

Пример, как может выглядеть имя для изображения http://www.domain.ru/upload/iblock/2a6/006.jpg, размещенного на странице http://www.domain.ru: photo-name.jpg

Важно: после внедрения «псевдостатической» адресации со всех старых URL на новые необходимо настроить 301 редиректы.

Отмечу, что у изображений должен быть заполнен атрибут ALT. Он служит для отображения заданного фрагмента текста («alternative text») вместо картинки. Он должен содержать её краткое словесное описание. Этот текст будет доступен для индексации роботам поисковых систем, повысит релевантность каждой конкретной страницы.

Тег ALT необходимо добавить ко всем изображениям.

Основной принцип формирования: в атрибуты ALT основных изображений на сайте (изображения за исключением элементов дизайна) рекомендуется включить предложение, отвечающее следующим требованиям:

  • Текст до десяти слов, описывающий содержимое картинки.
  • Текст может совпадать с <H1>, если это логически допустимо.
  • Текст должен описывать изображение теми словами, по которым сайт могут искать пользователи.
  • Допускается дублирование данных атрибутов.

Шаблон облегчит задачу по их добавлению, но при желании можно прописывать атрибуты отдельно, помня, что ALT необходим для поисковых систем. То есть в него желательно включать слова, по которым эту картинку должен найти пользователь.

Требования к хостингу с точки зрения SEO

Проблемы с индексацией страниц сайта могут возникнуть в результате некорректной работы хостинга. Отследить ошибки сайта можно в соответствующем отчете Яндекс.Метрики.

Переход на протокол HTTPS

Защищенный протокол воспринимается в качестве фактора ранжирования, поэтому следует рассмотреть переход сайта на него.

Использование протокола HTTP/2

Протокол HTTP/2 существенно ускоряет открытие сайтов за счет следующих особенностей:

  • Соединения. Несколько запросов могут быть отправлены через одно TCP-соединение, и ответы могут быть получены в любом порядке. Таким образом отпадает необходимость в том, чтобы держать несколько TCP-соединений.
  • Приоритеты протоколов. Клиент может задавать серверу приоритеты — какого типа ресурсы для него важнее, чем другие.
  • Сжатие заголовка. Размер заголовка HTTP может быть сокращен.
  • Push-отправка данных со стороны сервера. Сервер может отправлять клиенту данные, которые тот еще не запрашивал. Например, на основании данных о том, какую страницу скорее всего откроет пользователь следующей.

Проверку можно провести при помощи сервиса.

Настройка кода ответа 304

Правильно настроенный сервер должен возвращать код 304 Not Modified, если клиент запросил документ методом GET, использовал заголовок If-Modified-Since или If-None-Match, и документ не изменился с указанного момента. При этом сообщение сервера не должно содержать тело страницы.

Настройка заголовка нужна в первую очередь для снижения нагрузки на сервер и ускорения индексации страниц. Именно поэтому необходимо произвести настройку заголовка Last-Modified, особенно для крупных ресурсов с большим количеством страниц.

Подробней об этом можно прочитать в справках поисковых систем:

Цель этого заголовка — сообщить клиенту (браузеру или поисковику) информацию о последних изменениях конкретной страницы. Клиент передает серверу заголовок If-Modified-Since. Если изменений на странице не обнаружено, то от сервера возвращается заголовок «304 Not Modified». При этом страница не загружается.

Проверить код ответа можно при помощи сервиса.

Выводы

К процессу технической оптимизации, как и к процессу продвижения в целом, не стоит подходить шаблонно. Любой проект индивидуален и даже самый обширный чек-лист не всегда способен охватить все рекомендации.

В данной статье я дал список наиболее распространенных технических проблем и привел пути их решения. Но стоит учитывать, что поисковые системы не стоят не месте, поэтому не исключаю, что спустя полгода или год этот список можно будет дополнить или сократить.

Рекомендация по теме

Чтобы быть в курсе последних наработок в области технической оптимизации, рекомендую послушать секцию «Техническое SEO» Сергея Кокшарова, автора самого популярного SEO-канала @DevakaTalk. Она пройдет в Сколково в конце октября в рамках Optimization.

Вопросы, которые Сергей планирует разобрать:

  • Опыт внедрения AMP/Turbo страниц на коммерческом (не новостном) сайте.
  • Опыт оптимизации SPA/PWA сайта.
  • Опыт использования GeoIP редиректов.
  • Максимизация видимости сайта продвинутыми техническими методами.
  • Использование машинного обучения для SEO задач и другие эксперименты в области технической оптимизации.
0
40 комментариев
Написать комментарий...
Денис Пикун

Да ладно вам ребята, хорошая статья. Все мы знаем что в сеошке почти ничего нового не придумали вот и не о чем писать. Человек скомпоновал вадную информацию в 2 части и расписал достаточно доходчиво. Хотелось бы почитать подробнее о PWA с примерами и графиками. А за статью спасибо.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Nikita Tarasov

Спасибо за интерес к материалу

Статья - в первую очередь освещает основные моменты, на которые стоит обратить внимание. Предназначена для маркетологов и представителей бизнеса, да и junior оптимизаторам будет полезно.

Ответить
Развернуть ветку
Mr. Burns
Google поднимает PWA значительно выше в поисковой выдаче.

И какой фактор за это отвечает? Есть стата или прост для пиздануть языком непонятное широкой аудитории?

Нормально отношусь к нормальным сеошникам, потому что знаю сколько там работы, рутинной, тупой, но работы. Но когда они начинают переписывать чек-листы десятилетней давности разными слова хочется хуесосить.

PWA создаются ради возможности работать в оффлайн (ну и чтобы сэкономить на нативных). Соответственно ни один бит инфы не уйдет в я.Метрика или GA, соответственно поведенческие факторы не считаются.

Более того, если половина конкретного сегмента аудитории будет в онлайн шопить (возьмем ИМ для примера), а вторая в оффлайн, то вся статистика переебется вообще. Как вы ее считать будете?

Ответить
Развернуть ветку
Nikita Tarasov

Одним из требований PWA является работа по защищенному протоколу https

Google официально объявил, что защищенный протокол является одним из факторов ранжирования https://webmasters.googleblog.com/2014/08/https-as-ranking-signal.html

Ответить
Развернуть ветку
Mr. Burns

Никит, не включайте дурака. Https давно фактор, но что pwa работает только по этому протоколу не имеет отношения к ранжированию вообще. Мухи отдельно, котлеты отдельно.

Ответить
Развернуть ветку
Nikita Tarasov

Системы web-аналитики так же корректно работают с PWA. Вот например, руководство от Google - https://developers.google.com/web/ilt/pwa/integrating-analytics

Ответить
Развернуть ветку
Mr. Burns

Ткните меня носом где сказано гуглом что оффлайн взаимодействие с приложением считается и учитывается гугл аналитикой. что из устройства без инета данные в GA все же корректно попадают.

Ответить
Развернуть ветку
Алексей из LOADING.express

«Проверка можно провести при помощи сервиса.»

Слущай, дарагой, спаасиба за такой статья.))

Ответить
Развернуть ветку
Ашманов и партнеры
Автор

И Вам спасибо. Исправили.

Ответить
Развернуть ветку
Simon Anting

варьРироваться / при ИПользовании турбо-страниц / стоят не месте / 

Улучшение скорости загрузки сайта

тема не раскрыта...

остальные тоже не на 100%

и лучше не надо, зачем плодить конкурентов... а так ради шума и хайпа конечно годно.

Ответить
Развернуть ветку
Виктор Шевцов

Уважаемые (бывшие) коллеги! По пункту "Использование протокола HTTP/2" - а чего сами не используете? 

Ответить
Развернуть ветку
Денис Шергин

Для Яндекса rel="canonical на первую страницу не отрабатывает на 100% в связи с изменениями: https://webmaster.yandex.ru/blog/nekanonicheskie-stranitsy-v-poiske. На проектах уже столкнулись с этим.

Ответить
Развернуть ветку
Nikita Tarasov

Тег rel="canonical" всегда был рекомендательным для поисковых систем. С учетом "нововведений" Яндекса - неканонических страниц в индексе стало больше 

Ответить
Развернуть ветку
Simon Anting

можно пример?

Ответить
Развернуть ветку
Сергей Давлятов

А зачем ему отрабатывать на 100%, если релевантная страница для яндекс это стр. №2, по запросу. Зачем пытаться поисковой системе впарить, что созданная страница SEOшником релевантней чем выбрал Яндекс.

Ответить
Развернуть ветку
Денис Шергин

Это в идеальном мире так: релевантная страница для запроса = странице пагинации № N.

На практике — нет. Например, есть раздел «Новости». Пользователи всегда ищут новости актуальные. Для них всё, что дальше первой страницы, не отвечает на запрос. Зачем в индексе куча страниц пагинации с новостями?

Ответить
Развернуть ветку
Сергей Давлятов

Вы не представляете сколько трафика есть по старым новостям

Ответить
Развернуть ветку
Денис Шергин

Представлять могу сколько угодно.

Но конкретно по нашим проектам – его нет.

Ответить
Развернуть ветку
Denis Lavlinsky

Скорость сайта важна. Это единственное правильное об этом в статье. Средства приведены не годные. Модуль GPSI не дает ожидаемого эффекта, CDN вв 95% случаев вам не поможет и не ускорит сайт, Битрикс сам себя не ускорит, композитный сайт - маркетинговая шелуха для старого доброго кеша.

Работайте с профессионалами. Сеошники  не умеют ускорять сайты и не разбираются в этом. Вот пример: https://www.youtube.com/watch?v=_xRgLHi7dJU

Ответить
Развернуть ветку
Nikita Tarasov

Тут с Вами не соглашусь - тот же "Композитный режим" в Битрикс дает значительный прирост в скорости загрузки страниц. "Маркетинговый ход", но зато работает.

Вы тут пишите, что не согласны с методами повышения скорости загрузки, озвученными в статье. Напишите тогда те, которые работают по Вашему мнению - интересно будет почитать

Ответить
Развернуть ветку
Denis Lavlinsky

Это как если я вас попрошу в двух словах написать как в серпе быть в топе. Используется система различных приемов ускорения, посмотрите вот этот канал: (https://www.youtube.com/channel/UCH_PvxSiuETI_ecbeAmb7_w/featured), там сотни часов видео про методы ускорения сайтов.

Ответить
Развернуть ветку
Сергей Давлятов

На одном примере говорить, что все SEOшники не умеют разгонять сайты не объективно. Ловите скрин.

Кстати рекомендую инструмент для проверки скорости на всех страницах сайта, для мобил от Google https://www.thinkwithgoogle.com/intl/ru-ru/feature/testmysite/

Ответить
Развернуть ветку
Denis Lavlinsky

Примеров уже 2 как минимум, оба из топовых сеошников. Ашманов и Ингейт.

По вашему предложению: не рекомендуем этот инструмент, и вот почему: https://www.youtube.com/watch?v=oXsjkNYqoM8

Зеленая зона в GPSI не значит быстрый сайт. Популярное заблуждение.

Ответить
Развернуть ветку
Сергей Давлятов

Не смотрел видео. 

То есть инструмент от разработчиков Google вы не рекомендуете?

Конечно куча других инструментов, но этот как эталонный для поисковой системы Google

Параллельно также надо тестить и на других сервисах:

https://gtmetrix.com/

https://tools.pingdom.com/

https://www.webpagetest.org/

Насчет псевдосеошников, их больше, гораздо больше настоящих сеошников). Поэтому неудивительно.

Ответить
Развернуть ветку
Denis Lavlinsky

Для любителей Гугла мы рекомендуем Lighthouse. А как эталон - webpagetest. Первые 2 не годятся: https://www.youtube.com/watch?v=pQdYbxpFH7A&t=93s

Ответить
Развернуть ветку
Oleg Dergilev

А страница ошибки 404? Или я пропустил?

Ответить
Развернуть ветку
Nikita Tarasov

Про обработку кода 404 было рассказано в первой части https://vc.ru/seo/82301-tehnicheskaya-optimizaciya-sayta-chast-pervaya#6

Ответить
Развернуть ветку
Igor Sochenko

Добрый день! недавно услышал мнение, что стоит пагинацию на больших сайтах закрывать  всю кроме первой страницы в robots.txt чтобы краулинговый бюджет экономить. Как вы считаете, это правильная рекомендация?

Ответить
Развернуть ветку
Nikita Tarasov

Добрый день!
С данным утверждением не согласен - страницы пагинации необходимо оставлять открытыми для индексации, что бы дать возможность поисковым роботам индексировать документы, находящиеся на более глубоком уровне вложенности.
Можно проставлять со второй и последующих страниц пагинации ссылки на первую - в таком случае поисковые роботы все равно будут переходить по страницам пагинации, но в поисковом индексе данные страницы отображаться не будут

Ответить
Развернуть ветку
Igor Sochenko

спасибо за ваш ответ

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Nikita Tarasov

Страницы пагинации нужны в первую очередь для удобной навигации по сайту и для того, что бы дать возможность поисковым роботам индексировать документы, находящиеся на более глубоком уровне вложенности.

Как правило страницы пагинации де-оптимизируются:

Title формируется по следующему алгоритму:

/h1/ - страница /N/ из /page_last/

где h1 содержимое соответствующего тега на странице, page_last – указывает на суммарное число страниц в разделе.

Description со страниц пагинации убирается

При таком раскладе страницы пагинации не смогут привлекать достаточного числа трафика.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Ашманов и партнеры
Автор

Спасибо. Исправили

Ответить
Развернуть ветку
Dmitry Hohlov

Было уже. Кейсов полно в сети. Ничего нового.

Ответить
Развернуть ветку
Denis Lavlinsky

Не туда ответил

Ответить
Развернуть ветку
Миша Кор

Не забываем что Яндекс отдает предпочтение index follow или all в случае если на странице присутствует одновременно с противоречивыми тегами noindex nofollow или none в <meta/> в Google все логично и прямо наоборот но это будет длиться не долго (https://www.searchengines.ru/meta-nofollow.html) директивы будут просто мишурой 

Ответить
Развернуть ветку
Вера Гагарина

Если я правильно поняла, то все можно подправить быстро, кроме кода. Если код при создании сайта сделали кривой, то тогда нужно весь сайт перепиливать?

А как правильно проконтролировать, чтобы код был чистый и без мусора на этапе создания сайта? Как корректно это в ТЗ написать?

Как потом проверить, чистый код или грязный?

Ответить
Развернуть ветку
Вера Гагарина

Ашманов же серьезная контора. Почему все тут пытаются спорить с автором? Почему так происходит, может кто-то написать внятно?

Ответить
Развернуть ветку
Денис Пикун

Есть вопрос по пункту "Оптимизация распределения ссылочного веса по страницам сайта“. Вы пишите что лучше ставить rel nofollow для ссылок которые ведут на страницы закрытые от индексации. Насколько целесообразно таким образом ставить данный атрибут для ссылок на карзину, понравившиеся товары, сравнение? Часто встречал информацию что ставить такой атрибут для внутренних ссылок не есть хорошо. За все время такой подход чаще всего видел для Битрикса, там действительно закрывают этим атрибутом сортировку, но в связке с редиректом.

Ответить
Развернуть ветку
37 комментариев
Раскрывать всегда