Базовая SEO-оптимизация

Сделали сайт, разместили в «Спринтхост», а в поисковой выдаче выдается на 100500 странице. Что делать? Разберемся вместе с коллегами из pr-cy.ru.

Базовая SEO-оптимизация

Алгоритм базовой оптимизации

Если нет денюжек на рекламу силами агрегаторов по типу Яндекс и Google, то на помощь приходит SEO, или в простонародье поисковая оптимизация сайта. Про SEO сейчас многое написано, это очень известная история для продвижения сайтов, но даже такого количества написанного не хватит, чтобы полностью раскрыть тему SEO. В том числе и эта статья описывает лишь верхушку айсберга.

В чем заключается SEO? Чтобы попасть на сайт, его нужно найти в интернете. Потенциальные посетители и клиенты не знают ни названия сайта, ни компании — ничего, что могло бы напрямую привести их на веб-ресурс. У них есть лишь набор потребностей, которые они вводят в поисковике.

Например, человек ищет хостинг, соответственно, он вводит в строку «хостинг», приправляя этот запрос различными эпитетами и дополнениями по типу «качественный», «недорогой», «с отзывчивой техподдержкой» и т.д. Поисковая система выдаст список ресурсов, подходящих под этот запрос. В Яндексе, например, сверху будут идти рекламные ссылки, за вывод которых компании заплатили системе — они будут всегда сверху, это неорганическая выдача. Ниже будут показываться те сайты, которые наиболее подходят под запрос.

Поисковые роботы в прямом смысле просматривают каждую страничку каждого сайта, чтобы определить их содержимое и затем вывести под подходящий запрос. Соответственно, сайт хостинг-провайдера должен иметь в себе некие триггеры и «крючочки», за которые роботы и ухватятся. Грубо говоря, SEO-оптимизация занимается созданием этих триггеров и «крючочков».

Что нужно для базовой SEO-оптимизации?

Сделаем чек-лист, чтобы было проще ориентироваться:

  • Аудит;
  • Сервисы аналитики;
  • Техническая оптимизация;
  • Работа с текстом, наполнением сайта и исправление ошибок.

В первом случае анализируется все, что есть перед началом оптимизации. Подразумевается, что у вас уже имеется сайт, который нужно продвигать — заниматься SEO без сайта то же самое, что и играть в футбол без мяча :)

У вас есть готовый сайт. На нем нужно проанализировать качество контента, проверить ошибки (грамматика, битые ссылки, несоответствия), скорость прогрузки страниц и их индексацию.

Индексация — это добавление информации о сайте и страницах в поисковую систему. Она проводится роботами этих систем.

Подключите Яндекс.Метрику и Google Analytics, чтобы анализировать поведение пользователей и смотреть, по каким фразам они находят сайт. Яндекс.Вебмастер и Google Search Console нужны для работы с индексацией страниц, проверок ошибок, оптимизации.

Работа над контентом является важной составляющей оптимизации. Заголовки должны быть релевантны запросам пользователей, описания с разными, но близкими по смыслу словосочетаниями, а сам текст должен совпадать с тем, что ищут в интернете. То есть если у вас сайт — это магазин по продаже плюшевых игрушек, то и описание должно быть связано с этой темой, нужно использовать заголовки и контент, которые поисковые роботы смогут соотнести с тем, что люди вбивают в поисковике.

Под технической оптимизацией подразумевается работа с sitemap, robots.txt. Также нужно убрать битые ссылки и дубли страниц — роботы такое не любят и понижают сайт в выдаче.

Robots.txt и sitemap

robots.txt — текстовый файл, в котором указаны правила индексации сайта. С его помощью можно регулировать частоту обращений поисковых роботов, запретить индексирование отдельных страниц или всего сайта.

Сам файл нужно разместить в корневой директории сайта и прописать в нем необходимые правила.

Здесь упомянем основные директивы:

  • User-agent

В первой строке нужно указать правило User-agent. Оно определяет тех роботов, которым можно индексировать сайт.

User-agent: Yandex — только для роботов Яндекса;

User-agent: * — для всех существующих роботов.

  • Disallow, Allow

Эти директивы ограничивают доступ роботам к определенным страницам. Например, можно закрыть административную часть сайта.

Disallow запрещает индексацию, Allow разрешает индексировать отдельные ссылки внутри запрещенных.

Allow: /public

Disallow: /

По этому примеру на сайте ничего нельзя индексировать, кроме страниц вида domain.ru/public

Директивы работают со специальными символами «*» и «$». Символ «*» задает последовательность из неограниченного количества символов (0 и более):

Disallow: /catalog/*.html — запрет доступа ко всем страницам из раздела catalog с расширением .html.

Символ «$» жестко указывает на конец правила:

Disallow: /catalog/boxs$ — запрет индексирования страницы domain.ru/catalog/boxs , но, например, доступ к domain.ru/catalog/boxs.html роботы смогут получить.

  • Clean-param

Порой в ссылках содержатся параметры (идентификаторы сессий, пользователей), которые не влияют на содержимое страницы.

Например, у вас есть каталог товаров, которые можно отфильтровать. После этого получится следующий набор ссылок:

domain.ru/catalog

domain.ru/catalog? =1

domain.ru/catalog?product=2

Первая ссылка включает в себя весь каталог продуктов, поэтому индексация этой же страницы с параметрами не нужна. Чтобы убрать лишние ссылки, используйте это правило:

Clean-param: product /catalog

Указать несколько параметров можно через символ «&»:

Clean-param: product&price /catalog

Clean-param ускоряет индексацию и снижает нагрузку на сервер.

  • Sitemap

Sitemap указывает роботу расположение карты сайта:

Sitemap: http://domain.ru/sitemap.xml

Также нужно указать ссылку на Sitemap в вебмастере Яндекса и Google.

  • Можно вообще отключить индексацию сайта, указав правила:

User-agent: *

Disallow: /

При составлении файла robots.txt желательно ознакомиться со справочной информацией поисковиков, так как некоторые правила могут не поддерживаться или игнорироваться роботами. Часть директив можно указать в вебмастере, например, ограничить количество запросов к сайту.

Перейдем к sitemap. Он нужен, чтобы робот быстрее распознал структуру сайта и быстрее провел индексацию страниц. Есть два несложных способа автоматического создания карты сайта: генераторы sitemap и плагины в CMS.

В интернете можно найти бесплатные генераторы с различными настройками. Но они подойдут для ресурсов, которые редко обновляются — карту нужно будет генерировать заново каждый раз при создании новых страниц.

Для тех, кто пользуется CMS, есть возможность установить плагин, который создаст и будет автоматически обновлять sitemap. Например, для Wordpress подойдет плагин Google XML Sitemaps, для Joomla — Sitemap Generator, в 1С-Битрикс такой компонент включен по умолчанию.

После добавления карты должно пройти время, в течение которого сайт будет проиндексирован поисковиками. Сам файл также должен быть расположен в корневой директории сайта.

В Панели управления Спринтхост с файлами robots и sitemap очень удобно работать через Файловый менеджер.

Битые ссылки и теги

Битые ссылки появляются, когда начинаешь работать со ссылочной массой. Например, на каком-нибудь сайте или в соцсети есть ссылка на раздел вашего сайта. В какой-то момент вы решили обновить раздел или вообще его удалить, но ссылка на него осталась. Когда пользователь переходит по ней, то получает ошибку. Это плохо как для SEO, так и для бизнеса в целом, так как пользователь не станет разбираться в причинах ошибки и просто уйдет к конкуренту.

Кроме того, важно прописывать теги на страницах. Они добавляются в раздел HTML-кода.

Перечислим основные метатеги:

  • Description — описание сайта в результатах поиска;
  • Keywords — ключевые слова, которые помогают определить соответствие сайта поисковым запросам;
  • Robots — инструкции по сканированию и индексированию страниц роботами. Вместо robots можно прописать yandex или googlebot, чтобы инструкцию понимал робот конкретной поисковой системы;
  • Viewport — нужен, если у вас есть адаптация на мобильные устройства;
  • Content-Type — указывает на тип контента.

У Google и Яндекс прописаны рекомендации по заполнению тегов, советуем почитать.

Поисковые системы отдают предпочтение адаптированным сайтам с быстрой загрузкой контента. Если ваш сайт медленно грузится, картинки не влезают в экран, а шрифт такой маленький, что и с лупой не разглядеть, то вы вряд ли попадете на первые строчки выдачи. Такие вещи нужно учитывать при создании сайта и его доработке.

Небольшие дополнительные советы

Установите SSL-сертификат и переезжайте на HTTPS. В Google HTTPS уже становится стандартом. Кроме того, незащищенный сайт обозначается, как, ого!, незащищенный. Это тоже может повлиять на поисковую выдачу. Не забудьте при переезде изменить информацию в Яндекс.Вебмастере, чтобы не потерять страницы в индексе. Для Вебмастера сайты на http и https — разные ресурсы.

Адаптируйте сайт под разные устройства. Смартфоны уже давно заняли головы и руки пользователей, поэтому нужно подумать об адаптации дизайна страничек под мобильные версии. За это вам скажут спасибо и пользователи, и роботы, которые сразу поднимут сайт в выдаче.

У SEO-самурая нет цели, только путь

Чтобы базово настроить поисковую выдачу сайта, не нужно много сил и умений, но нужно терпение, усидчивость и время. Даже идеально настроенный сайт может не выводиться в топы, поэтому нужно постоянно «докручивать» сайт, анализировать поведение пользователей, выявлять ошибки и т.д. То есть, SEO-оптимизация — это процесс, а не какое-то законченное действие. Также советуем внимательно прочитать документации Яндекса и Google.

После того как проведете базовую SEO-оптимизацию и анализ результатов, можно задуматься над более глубоким SEO. Здесь уже стоит обратиться к специалистам, так как нюансов становится слишком много и без помощи будет сложно и долго разбираться. Главное продолжайте заниматься SEO, так как вложения в него хорошо окупятся в будущем.

99
21 комментарий

Размах на рубль, удар на копейку. А где ж по теме-то? Тут каждый подзаголовок - на большую статью, а то и несколько.
Ну, и если это реклама хостинга - описали бы хоть, в чём плюшки именно этого хостинга. "Роботс" через файловый менеджер поправить можно вообще везде, сайтмап же ручками ковырять - так себе идея для сайта больше 3-х страниц.
Но вот, скажем, у этих - дёшево и хорошо, эти за три рубля сверху Redis подключат, эти - абузоустойчивые, там хоть обмасштабируйся по самое небалуйся. У вас что из плюшек для вебмастера и для SEO?

5
Ответить

Прям в точку, я уже размял палец что бы скролить каждый пункт SEO оптимизации, а тут бац и Конец(

2
Ответить

Что называется, начали за здравие, кончили за упокой.

1
Ответить

Это не реклама хостинга. Статья рассчитана на тех, кто будет делать первые шаги в SEO и изучать эту тему более глубоко в будущем. Мы не пытались до малейших подробностей расписать все в статье. Как вы сами отметили, здесь можно собрать целый цикл статей на эту тему. Возможно, мы так и поступим 🤔

Но насчет плюшек, то все, что вы перечислили, у нас есть 😉

Ответить

Дайте своему копирайтеру другие темы для постинга околорекламных статей. Не надо в seo, ну правда. Тут в основном специалисты с многолетним опытом и крупными проектами за плечами. Читать пятикратно переваренный рерайт рерайта просто надоело.

Вы взяли тему в которой ничего не понимаете и не поймете никогда. Для этого нужны десятки тысяч часов практики, успехи и неудачи. Ссылаетесь на полезность для новичков. Это смешно.

Единственный верный путь для новичка - практика и набивание шишек. Порог входа в seo сейчас высокий в интеллектуальном и денежном эквиваленте. Можно наизусть выучить все статьи из раздела seo на vc и ничего никогда не продвинуть до каких-то значимых результатов. Такие реалии.

Хостинг у вас нормальный, но не нужны пытаться преподносить его преимущества под соусом полезного seo контента. Это не полезно и никому не нужно.

1
Ответить

Ну слушай, такие базовые вещи можно изучить за пару недель) а десятки лет опыта это наверно про SEO в целом и о разных ситуациях, которые встречаются за это время.

Ответить

Зачем статья, зачем это все новичку? Решается все просто и за 5 минут.

Robots.txt копируется типовой для начала - он закроет 99% задач без погружения в тему.

sitemap генерируется автоматом - в этом его смысл. Лезть туда руками очень плохая затея даже для опытного вебмастера.

Битые ссылки - даже не сказано как их править.

Метатеги - на старте не самое важное, а некоторые вообще мусорные, например, кейвордс

При этом Тайтл и h1 в стороне, хотя они-то как раз фундамент.

С SSL еще можно справится, но совет "Адаптируйте сайт под разные устройства" такое себе для новичка...

Все же гораздо проще сейчас - если ты чайник, то бери готовое решение , типа WP, и действуй - там уже все грабли пошагово расписаны без такой вот воды.

1
Ответить