{"id":14289,"url":"\/distributions\/14289\/click?bit=1&hash=892464fe46102746d8d05914a41d0a54b0756f476a912469a2c12e8168d8a933","title":"\u041e\u0434\u0438\u043d \u0438\u043d\u0441\u0442\u0440\u0443\u043c\u0435\u043d\u0442 \u0443\u0432\u0435\u043b\u0438\u0447\u0438\u043b \u043f\u0440\u043e\u0434\u0430\u0436\u0438 \u043d\u0430 5%, \u0430 \u0441\u0440\u0435\u0434\u043d\u0438\u0439 \u0447\u0435\u043a \u2014 \u043d\u0430 20%","buttonText":"","imageUuid":""}

30 SEO требований при разработке нового сайта

SEO требования актуальны в первую очередь под Google, однако большая их часть подойдет и для Яндекса.

Проектирование сайта с участием SEO-специалиста и с учетом SEO требований значительно упрощает дальнейший процесс продвижения и ускорят рост органического трафика с поисковых систем.

Приведенные ниже базовые SEO требования при разработке нового сайта рекомендуется дополнить и конкретизировать под ваш сайт на основе анализа конкурентов, всех видов страниц конкурентов и их функционала, а также микроразметки.

Сергей Горохов
SEO специалист, продвигаю сайты с 2009 года, работаю с западными рынками с 2019 года. Пишу статьи. Развиваю канал о зарубежном SEO >>> https://t.me/goburzhseo <<<

1. Корректный ответ сервера

Должна быть настроена отдача корректных кодов HTTP ответа сервера: 200, 301, 404, 503.

2. 301 редиректы с зеркал и ошибочных url

Должны быть настроены шаблонные 301 редиректы

Следует также проверить, чтобы страницы вида https://site.com/index, https://site.com/catalog/index.html и т.п. были недоступны (404) или редиректили на страницы с корректным url.

3. Страница 404 ошибки

Страница 404 ошибки должна отдавать код 404 и быть сделана в шаблоне сайта со ссылками на основные страницы, а также содержать текстовую информацию об ошибке.

4. Настройка Link rel canonical

На каждой странице сайта необходимо настроить атрибут rel="canonical". Он определяет каноническую страницу для поисковых систем.

Технические требования

  • URL в canonical указывается в абсолютном виде, т.е. https://site.com/catalog/.
  • Для страниц с get-параметрами (https://site.com/catalog/?utm-source=abc) в url в качестве каноничной указывается страница без него.
  • Для страниц с пагинацией в качестве каноничной указывается эта же страница с пагинацией, даже если используется get-параметр (!!!).
  • Для страниц с полностью одинаковым контентом, но разным url обязательно должна быть указана только одна каноничная страница.

5. Настройка meta robots

Необходима возможность добавлять мета-тег <meta name="robots" content="..." /> для всех страниц сайта, а также шаблонно для разделов. По умолчанию значение тега должно быть <meta name="robots" content="index, follow" />.

6. robots.txt на время разработки сайта

На время разработки сайта на его тестовой версии размещаем в корневом каталоге сайта вариант robots.txt запрещающий его обход ботами поисковых систем:

User-agent: *
Disallow: /

7. robots.txt для созданного сайта

В robots.txt запрещаем обход страниц с вводом персональных данных, авторизации, поиска информации, сортировок, фильтров и т.п. Добавляем ссылку на карту сайта. Пример:

User-agent: *
Disallow: /cart/
Disallow: /profile/
Disallow: /user/
Disallow: /payment/
Disallow: *sort=
Disallow: *filter=

Sitemap: https://site.com/sitemap.xml

8. sitemap.xml

Sitemap.xml рекомендуется для всех сайтов, у которых более 100 страниц.

Технические требования к sitemap.xml:

  • Xml разметка.
  • Должен содержать только URL, отдающие код 200.
  • Должен содержать только URL, доступные для индексации в поисковых системах.
  • Максимальное количество URL - 50 000.
  • Если на сайте более 50 000 Url, то создается индексный файл карт и дочерние карты сайта.
  • Размер каждого файла - до 10 Мб.
  • Не должно быть пустых полей.
  • Обновление файла минимум 1 раз в сутки, лучше сразу после создания или удаления страниц с сайта.
  • Кодировка - UTF-8.
  • Упоминанием url sitemap в robots.txt

Теги к заполнению:

  • <loc> - URL страницы в абсолютном виде,
  • <lastmod> - дата последнего обновления контента страницы (можно пропустить этот тег, но желательно передавать в него актуальную дату создания / правки контента).

Если на сайте более 50000 url доступных для индексирования в поисковых системах, то создается индексный файл карты сайта и дочерние. Также можно создавать отдельную карту сайта для видео, картинок и новостей. Документация от Google по ссылке

9. Мультирегиональные сайты

В случае сайта с контентом на разных языках, либо имеющего отличия в контенте и политиках под разные страны, рекомендуется использовать языковые папки. Соответственно контент располагаем в этих папках, например,

Для корректного ранжирования таких сайтов в различных регионах обязательно добавить атрибуты hreflang на страницы у которых есть альтернативы на других языках. Пример:

VC отказался принимать в тексте hreflang, поэтому размещаю картинкой

Технические требования:

  • Hreflang должны быть на всех страницах сайта, у которых есть альтернативы на других языках.
  • URL внутри тега должен быть абсолютный.
  • Все ссылки hreflang должны быть взаимными.
  • Возможно также указание пар “язык-страна”.

Подробности см. в рекомендациях Google https://developers.google.com/search/docs/specialty/international/managing-multi-regional-sites?hl=ru

10. Переключатель языков

Добавляем в шаблон страниц сайта переключатель языков, в котором будут указаны гиперссылки на другие языковые варианты текущей (!!!) страницы. Переключатель выводим только для тех страниц, для которых есть альтернативы на других языках.

Частая ошибка в переключателе - ссылки стоят на главные страницы языковых папок, либо гиперссылки вообще отсутствуют.

11. Серверный рендеринг или пререндер для сайтов на JS-фреймворках

Если сайт планируется создать на JS-фреймворках таких как React, Vue и т.п. то обязательно рекомендуется подключить серверный рендеринг страниц в статический html-код для ботов поисковых систем. Это типичная рекомендация для SPA / PWA сайтов. Для React используется Next.js, для Vue - Nuxt.js. Подробнее о видах рендеринга можно прочитать здесь https://web.dev/articles/rendering-on-the-web?hl=ru

В статическом коде должны быть:

  • Мета-теги и h1.
  • Meta robots, canonical, hreflang.
  • Микроразметка и OpenGraph разметка.
  • Все элементы перелинковки: футер, меню, пагинация и т.п.
  • Все тексты и картинки.
  • Товары (хотя бы 20-30 шт.), их названия, цены если это листинг.

После внедрения на тесте проверям все ли корректно работает по методике вот этой статьи https://vc.ru/seo/1131353-pochemu-google-ne-vidit-kontent-vashego-sayta-i-kak-eto-ispravit

12. Политика по наличию контента и картинок в html-коде

Даже на не SPA / PWA сайтах часть контента страницы может подгружаться после загрузки html-кода. Поэтому важно чтобы:

  • Весь текстовый контент должен быть в статичном html-коде.
  • Lazy-load для товаров и картинок рекомендуется настраивать только с 3 экрана, но точно не с первого.
  • Визуальное скрытие контента, если оно требуется, делаем при помощи CSS (а не подгружаем его по нажатию на кнопку). Вариантов много: https://habr.com/ru/companies/ruvds/articles/485640/ .

13. Пагинация

Технические требования к страницам пагинации:

  • Должны быть доступны для обхода поисковыми ботами и индексации.
  • На страницах не выводим SEO-текст и не выводим оптимизированные мета-теги.
  • Для мета-тегов и H1 рекомендуется использовать шаблон: %Название раздела% - Страница %page-number%.
  • Первая страница пагинации т.е. /catalog/page-1 или /catalog/?page=1 должна редиректить на основную страницу листинга /catalog/.
  • Несуществующие страницы пагинации должны отдавать 404 код, например, ?page=0, ?page=9999.
  • Каноничной должна быть сама страница пагинации (!!!), а не страница листинга.

14. Open Graph разметка

Open Graph разметка нужна для корректного отображения ссылок на сайт в соцсетях и мессенджерах.

Обязательные элементы:

  • og:title — название страницы.
  • og:description — описание страницы.
  • og:type — тип объекта.
  • og:image — URL изображения, описывающего объект.
  • og:url — канонический URL страницы.

Справочная информация: https://habr.com/ru/companies/click/articles/492258/

15. Микроразметка Schema.org

Рекомендуется размещать разметку Schema.org в виде кода JSON-LD в разделе <head> html-кода страницы. Какую разметку применяем:

Обязательно валидируем разметку тут https://validator.schema.org/

16. Закрытие от индексации тестовых сайтов и поддоменов

Тестовые сайты и технические поддомены необходимо закрыть от индексации при помощи следующих вариантов (любой из):

  • Http-авторизации.
  • Отдачи 404, 403 кода по всем страницам.
  • Запрета индексации в meta robots и обхода в robots.txt (только в robots.txt закрыть недостаточно).

Обязательно проверяем не закрыли ли от индексации основной домен!

17. Политика в отношении внешних ссылок и пользовательского контента

Если на сайте возможна публикация комментариев / отзывов или статей пользователей, то перед публикацией они должны проходить как минимум автоматическую модерацию (лучше ручную). Для защиты от спама рекомендуется использовать ReCaptcha.

Рекомендуется для внешних ссылок (ссылок на сторонние сайты со страниц вашего сайта) использовать атрибуты rel="nofollow" и target="_blank". Гиперссылки из комментариев и со страницы профиля пользователя (если этот функционал есть) недопустимы.

18. Структура сайта и URL страниц

Общие рекомендации по структуре URL посадочных страниц:

  • Использовать ЧПУ (человеко понятные url).
  • Использовать в url тематические и ключевые слова, но не более 2х раз если это однокоренные слова.
  • Избегать использования динамических параметров в url.
  • Не использовать в адресе параметров id-сессии.
  • В качестве разделителя слов использовать “-”.
  • Все символы, кроме латиницы и цифр в символьном коде адреса страницы заменять на “-”.
  • Использовать только символы в нижнем регистре.

Для сайтов под различные языки возможно использование символов локального языка в url. Пример:

Символы арабского алфавита в url

19. Семантическая разметка HTML

Рекомендуется использовать следующие структурные элементы в коде:

  • <header>,
  • <nav>,
  • <article>,
  • <section>,
  • <footer>,
  • <main>.

Заголовки контента оформляем в теги <H1>…<H4>. Меню и прочие элементы в шаблоне сайта оформляем при помощи CSS, не используем для этого теги H.

20. Блоки для навигации и SEO перелинковки

Меню

В меню необходимо разместить ссылки на все основные разделы и подразделы сайта.

Дополнительно в раскрывающихся или выпадающих списках рекомендуется вывести наиболее важные для SEO и пользователей страницы.

Футер

В футере рекомендуется вывести:

  • Логотип, название бренда и контактную информацию.
  • Ссылки на мобильные приложения в сторах и группы в соцсетях.
  • Ссылки на онлайн чат / службу поддержки.
  • Ссылки о компании и услугах: Контакты, О компании, FAQ, Помощь.
  • Ссылки на политики: Политика конфиденциальности, Политика об обработке cookies и т.п.
  • Ссылки на важные для SEO страницы, которые не влезли в меню.

Хлебные крошки

Выводим на всех внутренних страницах, последний пункт крошек (текущая страница) делаем некликабельным.

Дополнительные блоки перелинковки для SEO

Для каждой страницы используем минимум 2-3 дополнительных блока для перелинковки. Идеи для блоков берем на основе конкурентов.

21. Мета-теги и title

Нужна возможность задавать вручную для каждой страницы: Title, Description, H1. Также нужна возможность настраивать шаблоны тегов по разделам сайта, т.е. для всех страниц одного вида.

22. SEO тексты

На каждой посадочной странице необходимо по умолчанию предусмотреть минимум одно поле для SEO текста внизу страницы.

Оптимальный вариант: одной поле на небольшой текст 100-150 слов вверху страницы и второе поле внизу страницы.

При верстке абзацев внутри текста используем <p>, но не <div> или <span>.

23. Гиперссылки

Гиперссылки должны быть оформлены в виде <a href="/catalog/page/">anchor</a>, другие варианты недопустимы. При оформлении ссылки в виде кнопки button или любым другим способом дублируем ее также ссылкой <a href=””>.

24. Картинки

Рекомендуется использовать сгенерированные или созданные клиентом изображения. Стоковые картинки не рекомендованы, но возможны.

Нельзя использовать картинки из интернета без письменного разрешения правообладателей во избежание судебных претензий. Обязательно предупредите об этом заказчика сайта.

Технические требования к картинкам:

  • Настроить ресайз и сжатие картинок при загрузке через CMS.
  • Использовать ключевые слова в названии файла картинки.
  • Для ускорения загрузки картинок можно использовать CDN.
  • Использовать адаптивные изображения и указывать путь к ним в теге srcset.
  • Путь к изображению с максимальным разрешением указывать в теге src.
  • Нужна возможность заполнять alt изображения вручную, он должен быть тематичным изображению и абзацу, в котором он расположен.
  • Не использовать CSS для показа важных картинок.

Не SEO, но не менее полезно

Далее приведены краткие рекомендации, которые повышают удобство использование сайта, его безопасность и скорость загрузки.

25. Адаптивность сайта

Само-собой разумеется также надо помнить про принцип mobile-first.

26. Валидность HTML

Можно проверить в https://validator.w3.org/, однако для SEO специалиста достаточно сложно понять какие ошибки критичные, а какие нет.

27. SSL сертификат

Корректность работы сертификата можно проверить в одном из чекеров, например, в https://www.leaderssl.ru/tools/ssl_checker.

  • Для большинства сайтов подойдут сертификаты подтверждающие домен (DV SSL).
  • Для сайтов коммерческих компаний и сайтов с онлайн-платежами и авторизацией лучше использовать сертификаты подтверждающие организацию (OV SSL).
  • Для крупных финансовых компаний, е-комов и т.п. лучше использовать сертификаты с расширенной проверкой (EV SSL).

28. Сжатие данных

Для JS, CSS, шрифтов и прочих статических ресурсов должно использоваться сжатие, например, GZIP. Также следует включать сжатие текста.

29. Кеширование

Задайте правила кэширования для статических объектов. Для неизменяемых объектов имеет смысл выбрать срок кэширования от месяца и более.

30. HTTP Security Headers

HTTP заголовки важны для безопасности сайта. Рекомендуется настроить обработку:

  • X-Frame-Options
  • Strict-Transport-Security
  • X-Content-Type-Options
  • Referrer-Policy
  • Content-Security-Policy

Проверяем Security Headers тут https://securityheaders.com/

П.С. Если вам понравился контент, то подписывайтесь, делитесь с коллегами, а также приходите на канал Go Бурж SEO

0
69 комментариев
Написать комментарий...
Владимир

Мне порой кажется что сайты делают для кого угодно и для чего угодно. Но не для людей

Ответить
Развернуть ветку
Сергей Горохов
Автор

Было когда-то теплое и ламповое время на заре Интернета)

Ответить
Развернуть ветку
1 комментарий
Чайка О.

Владелец сайта тоже человек )

Ответить
Развернуть ветку
5 комментариев
Пётр Фаст

Цитата: Каноничной должна быть сама страница пагинации (!!!), а не страница листинга.

Вы тремя восклицательными знаками выделили. Расскажете, почему именно так нужно делать? У всех конкурентов, по екоммерс, вижу что стоит каноникл на первую страницу листинга

Ответить
Развернуть ветку
Виктор Петров

Потому что это разные страницы, они не склеиваются. А если пагинацию закрывать или склеивать - робот не будет обходить эти страницы, и ваши товары в индекс, вероятно, не попадут, хотя ПС их и найдут через сайтмап, например.
Альтернатива - хорошо проработанная перелинковка. Но я с трудом представляю, как это можно хорошо сделать на большом каталоге с преобладанием категориальных запросов и малым количеством теговых срезов.
Так что проще всё же пагинацию открыть без канонизации листинга.

Ответить
Развернуть ветку
2 комментария
Сергей Горохов
Автор

Могу добавить разве что когда-то давно Яндекс рекомендовал делать для пагинации каноничной страницу листинга, но для Гугл это плохое решение, да и Яндекс вроде уже отказался от такой рекомендации.

Ответить
Развернуть ветку
LAPIN SECURITY

Подскажите как правильно сделать разделение сайта на разные города?
На поддоменах?

lapinsecurity.ru Москва
nn.lapinsecurity.ru Нижний Новгород
и т.д.

Ответить
Развернуть ветку
Олег Черников // SEO

Вы посмотрите топ10 сайтов конкурентов под эти гео, так и себе реализуйте обычно в Гугле на подпапках, а в Яндексе на поддомене. Но может быть и третий вариант на основном сайте с вхождением топонимов в метатеги и странице.

Сергей отличный гайд👍

Ответить
Развернуть ветку
Сергей Горохов
Автор

Лучше спросить у экспертов, продвигающих в Ру. Я продвигаю сайты за границей. Из своего старого опыта продвижения в Ру могу сказать, что в данном случае продвижение поддоменов лучше под Яндекс, а продвижение основного сайта с отдельными посадочными страницами под каждый город - лучше под Google (легче прокачать ссылочным). Я бы склонялся в сторону второго варианта. Но опять же, мнение построено на устаревшей информации.

Ответить
Развернуть ветку
Сергей Горохов
Автор

Откопал свою статью возраста 5+ лет как раз по теме вопроса. Эх жаль устарела наверное уже https://vc.ru/seo/54377-vybiraem-posadochnuyu-dlya-regionalnogo-seo-prostoy-i-slozhnyy-sposoby

Ответить
Развернуть ветку
Stepan Fedulin

Капец!!!! sitemap.xml требуется даже если у тебя 2 страницы, попробуй удали - и тут же получишь от краулеров тонны мата!

HTML валидность - это смотря какой SEO - шник, не надо ярлыки на всех вешать, есть такие спецы которые у разрабов тимлидами подрабатывают))))

Ответить
Развернуть ветку
Сергей Горохов
Автор

Скорее краулеры вам аплодируют, что наткнулись не на очередной дорвей на 100500 страниц, а на маленький сайт)

Ответить
Развернуть ветку
11 комментариев
Jackzavr

Толковый текст, респект)

Ответить
Развернуть ветку
HelenaS

Полезная качественная статья, такие не так уж часто попадаются. Спасибо.

Ответить
Развернуть ветку
Илья Шумилов
> Несуществующие страницы пагинации должны отдавать 404 код, например, ?page=0, ?page=9999.

С get-параметрами конечно фиг настроишь такое, лучше делать /page-2/, /page-1000/

Ответить
Развернуть ветку
Сергей Горохов
Автор

Настроить псевдостатику лучше, это да. Хотя и в таком варианте все настраивается, когда у вас есть команда (команды) разработчиков.

Ответить
Развернуть ветку
Виталий К.

Следование этим требованиям сначала разработки сайта может значительно сэкономить время и усилия в дальнейшем, стоило бы многим взять на заметочку!

Ответить
Развернуть ветку
Владимир Егоров
7. robots.txt для созданного сайта

Я видел, что у многих сайтах в robots специально разрешают доступ в некоторые папки. Например, где лежит js, css. Так тоже надо или эти правила лишние?

8. sitemap.xml

Можно ещё рассказать про changefreq и priority. Я пока не понял, есть ли от них толк.

15. Микроразметка Schema.org. Рекомендуется размещать разметку Schema.org в виде кода JSON-LD в разделе html-кода страницы.

Яндекс не понимает JSON-LD (https://qna.habr.com/q/693642). Поэтому только microdata, только хардкор! Microdata понимают оба поисковика.

24. Картинки

Нужна ещё поддержка .webp!

Ответить
Развернуть ветку
Виктор Петров

В robots.txt нужно принудительно разрешать доступ к js и css и прочим файлам, формирующим шаблон, и проверять, может ли поисковик правильно рендерить сайт.
В sitemap.xml должны быть ссылки на канонические страницы. Всё остальное там давно никем не учитывается - заспамленные это поля.
Микроразметку в JSON-LD Яндекс давно и наотличненько обрабатывает, по ссылке - сильно устаревшая информация. В Гугл это вообще уже идёт фактически одним потоком.

Ответить
Развернуть ветку
10 комментариев
Сергей Горохов
Автор

Спасибо, хорошие вопросы. Но сразу сходу - это все под Google (!), о чем и написано в самом первом предложении статьи)))

"Например, где лежит js, css"

Совершенно верно и опять же верно, что надо именно писать путь до них, состоящий из папок. Для упрощения не стал про это указывать, хотя в другой статье касался. Поленился в общем)

"Можно ещё рассказать про changefreq и priority"

Google их игнорирует https://developers.google.com/search/docs/crawling-indexing/sitemaps/build-sitemap?hl=ru

"Яндекс не понимает JSON-LD"

Вот за что люблю продвижение под Гугл, так в том числе за то, что он понимает JSON-LD.

"Нужна ещё поддержка .webp!"

Забил на данный формат, т.к. Safari его не понимал, во всяком случае речь про старые версии кажется до 2019-2020 года. Как сейчас обстоят дела - не знаю.

Ответить
Развернуть ветку
Boris Maler

хороший чек лист для начала, еще можно было бы про дубли что-то добавить, clean-param и вот это все. Когда-то давно видел чек лист сеошника на 400 пунктов =)

Ответить
Развернуть ветку
Чайка О.

Всякий чек-лист — это творчество. Нормально — делать свой. И дискутировать с другими создателями.

Ответить
Развернуть ветку
2 комментария
Сергей Горохов
Автор

Это все под Google в первую очередь, поэтому clean-param, микроразметка под Яндекс и много чего еще здесь не учитывается.

А чек-лист для seoшника, чтобы проверить сайт (чек-лист аудита сайта) или же чек-лист для разработчика? 400 пунктов либо не будут прочтены в полной мере, либо за такую разработку сайта вам сразу накинут очень хороший % свыше базовой цены))) Поэтому думаю, что речь про чек-лист аудита сайта seoшником, что совсем уже другое дело.

Ответить
Развернуть ветку
Ya.Serg

Я вроде не супер программист, но мне кажется люди которые делают сайт эти очевидные вещи знают. Ко всему у самого Яндекса в метрике и у Гугла есть всё в рекомендациях более точнее.

"Рекомендуется использовать сгенерированные или созданные клиентом изображения. Стоковые картинки не рекомендованы, но возможны." Шта? )))

Ответить
Развернуть ветку
Виктор Петров

Не. Редко-редко когда видишь, что сайтом изначально реально кто-то занимался, притом косячьё очень примитивное, грубое.

Ответить
Развернуть ветку
2 комментария
Сергей Горохов
Автор

Не знают, либо знают не все, либо сделают не так, как вам нужно. Я в этом уже 15 лет и повидал немало разной дичи))) Даже при подробном расписывании ТЗ иногда получаешь нечто неожиданное.

А к чему именно вопрос, к позиции по стоковым картинкам? Все просто - они неуникальны и возможно есть уже на многих других сайтах. Да и от юридических проблем это не 100% защита, что вы купили картинку или скачали картинку с лицензией на бесплатное использование (не знаю как точно эта лицензия называется).

Ответить
Развернуть ветку
Alex Novik

это с учетом слива яндекса уже или нет?

Ответить
Развернуть ветку
Виктор Петров

В этом "сливе" не было ничего важного и нужного, что связано с seo. Вот про антифрод и адблокеры - просто в лоскуты, а прочее было и в предыдущих сливах (2013-2014), ничего принципиально нового.

Ответить
Развернуть ветку
6 комментариев
Сергей Горохов
Автор

А речь про какой именно слив?)) Я под бурж Гугл вообще двигаю, но интереса ради

Ответить
Развернуть ветку
Борис Братко

При разработке нового сайта важно учитывать SEO требования, чтобы обеспечить его видимость и эффективность в поисковых системах

Ответить
Развернуть ветку
66 комментариев
Раскрывать всегда