Google обновил рекомендации по созданию структуры URL
Google уточнил и расширил рекомендации по URL‑структурам в документации для вебмастеров и SEO. Обновление касается следующих аспектов
- Строгие требования к синтаксису URL: соответствие стандарту IETF STD 66 (RFC 3986)
- Жёсткое ограничение на использование спецсимволов ({}, [], =, : и др.)
- Разделение обязательных и необязательных параметров URL
- Упор на читаемость slug’ов и логичную структуру пути
- Недопустимость session‑ID, автоматических трекеров и параметров сортировки без логики
Ниже собраны ключевые принципы, на которых основана обновлённая инструкция Google по работе со структурой URL. Эти рекомендации затрагивают как технические аспекты (кодировка, параметры), так и смысловые (читабельность, региональность).
Следование им помогает улучшить индексацию, избежать дублей и повысить качество представления сайта в результатах поиска.
Используйте в URL осмысленные слова, а не цифровые идентификаторы
Учитывайте язык и регион вашей аудитории
URL‑структура должна соответствовать языковым ожиданиям пользователей.
Применяйте кодировку UTF‑8 для всех не-ASCII символов
Это обеспечивает корректную интерпретацию символов в любом языке.
Не используйте символы вне ASCII без кодировки
Такие символы могут быть некорректно интерпретированы системой.
Избегайте фрагментов URL для изменения контента
Google не индексирует URL‑фрагменты (#) как уникальные страницы
Структурируйте URL по регионам
Чтобы ясно указать на географическую направленность контента.
Разделяйте слова дефисами, а не подчёркиваниями
Дефисы считаются разделителями слов в поисковых системах, подчёркивания — нет.
Корректно указывайте параметры URL
Ключ‑значение, амперсанды и запятые — это стандарт, с которым работает Googlebot.
- Ключ‑значение через
- Параметры через &
- Несколько значений через запятую: purple,pink,salmon
Не используйте нестандартные конструкции параметров
Конструкции с [], :, двойными запятыми могут быть нераспознаны.
Проблемы избыточной фильтрации и дублирования URL
Дублирующие URL из-за фильтров перегружают индекс и создают путаницу. Разные комбинации фильтров → миллионы URL, но почти один и тот же контент
Упорядочивание и нерелевантные параметры
Параметры сортировки и трекинга не влияют на уникальность контента и должны быть очищены или канонизированы.
- Множество вариантов сортировки или реферальные параметры
Рекомендации
- Используйте теги rel="nofollow" и rel="canonical" Это поможет исключить их из индексации и поможет сохранить сохранить краулинговый бюджет.
- Ограничьте индексацию таких параметров через robots.txt
Бесконечные календари
- Генерация URL на каждый день → бесконечные пространства
Неработающие относительные ссылки
- Повторяющиеся сегменты в пути
Что делать сейчас
Чтобы избежать проблем с индексацией и дублированием контента, связанных со структурой URL, придерживайтесь следующих рекомендаций:
Постройте простую и логичную структуру URL. Организуйте контент так, чтобы адреса страниц были легко воспринимаемы человеком.
Ограничьте доступ к проблемным URL в файле robots.txt. Это особенно актуально для динамически формируемых страниц, таких как результаты поиска или бесконечные календарные ссылки. При необходимости используйте регулярные выражения.
Не используйте идентификаторы сеансов в URL. Вместо них применяйте другие методы, например, файлы cookie.
Приведите все URL к единому регистру, если веб-сервер не делает различий между строчными и прописными буквами. Это поможет предотвратить дубли страниц с разным написанием адресов.
Удалите избыточные или нерелевантные параметры. Это позволит сделать URL короче и понятнее как для пользователей, так и для поисковых систем.
Если на сайте используется календарь с генерацией страниц по датам, добавьте атрибут nofollow к ссылкам, ведущим на страницы, относящиеся к будущим периодам.
Проверьте корректность всех относительных ссылок. Ошибки в ссылках могут привести к созданию некорректных или избыточных URL.