{"id":14285,"url":"\/distributions\/14285\/click?bit=1&hash=346f3dd5dee2d88930b559bfe049bf63f032c3f6597a81b363a99361cc92d37d","title":"\u0421\u0442\u0438\u043f\u0435\u043d\u0434\u0438\u044f, \u043a\u043e\u0442\u043e\u0440\u0443\u044e \u043c\u043e\u0436\u043d\u043e \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0442\u044c \u043d\u0430 \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u0435 \u0438\u043b\u0438 \u043f\u0443\u0442\u0435\u0448\u0435\u0441\u0442\u0432\u0438\u044f","buttonText":"","imageUuid":""}

Базовая SEO-оптимизация

Сделали сайт, разместили в «Спринтхост», а в поисковой выдаче выдается на 100500 странице. Что делать? Разберемся вместе с коллегами из pr-cy.ru.

Алгоритм базовой оптимизации

Если нет денюжек на рекламу силами агрегаторов по типу Яндекс и Google, то на помощь приходит SEO, или в простонародье поисковая оптимизация сайта. Про SEO сейчас многое написано, это очень известная история для продвижения сайтов, но даже такого количества написанного не хватит, чтобы полностью раскрыть тему SEO. В том числе и эта статья описывает лишь верхушку айсберга.

В чем заключается SEO? Чтобы попасть на сайт, его нужно найти в интернете. Потенциальные посетители и клиенты не знают ни названия сайта, ни компании — ничего, что могло бы напрямую привести их на веб-ресурс. У них есть лишь набор потребностей, которые они вводят в поисковике.

Например, человек ищет хостинг, соответственно, он вводит в строку «хостинг», приправляя этот запрос различными эпитетами и дополнениями по типу «качественный», «недорогой», «с отзывчивой техподдержкой» и т.д. Поисковая система выдаст список ресурсов, подходящих под этот запрос. В Яндексе, например, сверху будут идти рекламные ссылки, за вывод которых компании заплатили системе — они будут всегда сверху, это неорганическая выдача. Ниже будут показываться те сайты, которые наиболее подходят под запрос.

Поисковые роботы в прямом смысле просматривают каждую страничку каждого сайта, чтобы определить их содержимое и затем вывести под подходящий запрос. Соответственно, сайт хостинг-провайдера должен иметь в себе некие триггеры и «крючочки», за которые роботы и ухватятся. Грубо говоря, SEO-оптимизация занимается созданием этих триггеров и «крючочков».

Что нужно для базовой SEO-оптимизации?

Сделаем чек-лист, чтобы было проще ориентироваться:

  • Аудит;
  • Сервисы аналитики;
  • Техническая оптимизация;
  • Работа с текстом, наполнением сайта и исправление ошибок.

В первом случае анализируется все, что есть перед началом оптимизации. Подразумевается, что у вас уже имеется сайт, который нужно продвигать — заниматься SEO без сайта то же самое, что и играть в футбол без мяча :)

У вас есть готовый сайт. На нем нужно проанализировать качество контента, проверить ошибки (грамматика, битые ссылки, несоответствия), скорость прогрузки страниц и их индексацию.

Индексация — это добавление информации о сайте и страницах в поисковую систему. Она проводится роботами этих систем.

Подключите Яндекс.Метрику и Google Analytics, чтобы анализировать поведение пользователей и смотреть, по каким фразам они находят сайт. Яндекс.Вебмастер и Google Search Console нужны для работы с индексацией страниц, проверок ошибок, оптимизации.

Работа над контентом является важной составляющей оптимизации. Заголовки должны быть релевантны запросам пользователей, описания с разными, но близкими по смыслу словосочетаниями, а сам текст должен совпадать с тем, что ищут в интернете. То есть если у вас сайт — это магазин по продаже плюшевых игрушек, то и описание должно быть связано с этой темой, нужно использовать заголовки и контент, которые поисковые роботы смогут соотнести с тем, что люди вбивают в поисковике.

Под технической оптимизацией подразумевается работа с sitemap, robots.txt. Также нужно убрать битые ссылки и дубли страниц — роботы такое не любят и понижают сайт в выдаче.

Robots.txt и sitemap

robots.txt — текстовый файл, в котором указаны правила индексации сайта. С его помощью можно регулировать частоту обращений поисковых роботов, запретить индексирование отдельных страниц или всего сайта.

Сам файл нужно разместить в корневой директории сайта и прописать в нем необходимые правила.

Здесь упомянем основные директивы:

  • User-agent

В первой строке нужно указать правило User-agent. Оно определяет тех роботов, которым можно индексировать сайт.

User-agent: Yandex — только для роботов Яндекса;

User-agent: * — для всех существующих роботов.

  • Disallow, Allow

Эти директивы ограничивают доступ роботам к определенным страницам. Например, можно закрыть административную часть сайта.

Disallow запрещает индексацию, Allow разрешает индексировать отдельные ссылки внутри запрещенных.

Allow: /public

Disallow: /

По этому примеру на сайте ничего нельзя индексировать, кроме страниц вида domain.ru/public

Директивы работают со специальными символами «*» и «$». Символ «*» задает последовательность из неограниченного количества символов (0 и более):

Disallow: /catalog/*.html — запрет доступа ко всем страницам из раздела catalog с расширением .html.

Символ «$» жестко указывает на конец правила:

Disallow: /catalog/boxs$ — запрет индексирования страницы domain.ru/catalog/boxs , но, например, доступ к domain.ru/catalog/boxs.html роботы смогут получить.

  • Clean-param

Порой в ссылках содержатся параметры (идентификаторы сессий, пользователей), которые не влияют на содержимое страницы.

Например, у вас есть каталог товаров, которые можно отфильтровать. После этого получится следующий набор ссылок:

domain.ru/catalog

domain.ru/catalog? =1

domain.ru/catalog?product=2

Первая ссылка включает в себя весь каталог продуктов, поэтому индексация этой же страницы с параметрами не нужна. Чтобы убрать лишние ссылки, используйте это правило:

Clean-param: product /catalog

Указать несколько параметров можно через символ «&»:

Clean-param: product&price /catalog

Clean-param ускоряет индексацию и снижает нагрузку на сервер.

  • Sitemap

Sitemap указывает роботу расположение карты сайта:

Sitemap: http://domain.ru/sitemap.xml

Также нужно указать ссылку на Sitemap в вебмастере Яндекса и Google.

  • Можно вообще отключить индексацию сайта, указав правила:

User-agent: *

Disallow: /

При составлении файла robots.txt желательно ознакомиться со справочной информацией поисковиков, так как некоторые правила могут не поддерживаться или игнорироваться роботами. Часть директив можно указать в вебмастере, например, ограничить количество запросов к сайту.

Перейдем к sitemap. Он нужен, чтобы робот быстрее распознал структуру сайта и быстрее провел индексацию страниц. Есть два несложных способа автоматического создания карты сайта: генераторы sitemap и плагины в CMS.

В интернете можно найти бесплатные генераторы с различными настройками. Но они подойдут для ресурсов, которые редко обновляются — карту нужно будет генерировать заново каждый раз при создании новых страниц.

Для тех, кто пользуется CMS, есть возможность установить плагин, который создаст и будет автоматически обновлять sitemap. Например, для Wordpress подойдет плагин Google XML Sitemaps, для Joomla — Sitemap Generator, в 1С-Битрикс такой компонент включен по умолчанию.

После добавления карты должно пройти время, в течение которого сайт будет проиндексирован поисковиками. Сам файл также должен быть расположен в корневой директории сайта.

В Панели управления Спринтхост с файлами robots и sitemap очень удобно работать через Файловый менеджер.

Битые ссылки и теги

Битые ссылки появляются, когда начинаешь работать со ссылочной массой. Например, на каком-нибудь сайте или в соцсети есть ссылка на раздел вашего сайта. В какой-то момент вы решили обновить раздел или вообще его удалить, но ссылка на него осталась. Когда пользователь переходит по ней, то получает ошибку. Это плохо как для SEO, так и для бизнеса в целом, так как пользователь не станет разбираться в причинах ошибки и просто уйдет к конкуренту.

Кроме того, важно прописывать теги на страницах. Они добавляются в раздел HTML-кода.

Перечислим основные метатеги:

  • Description — описание сайта в результатах поиска;
  • Keywords — ключевые слова, которые помогают определить соответствие сайта поисковым запросам;
  • Robots — инструкции по сканированию и индексированию страниц роботами. Вместо robots можно прописать yandex или googlebot, чтобы инструкцию понимал робот конкретной поисковой системы;
  • Viewport — нужен, если у вас есть адаптация на мобильные устройства;
  • Content-Type — указывает на тип контента.

У Google и Яндекс прописаны рекомендации по заполнению тегов, советуем почитать.

Поисковые системы отдают предпочтение адаптированным сайтам с быстрой загрузкой контента. Если ваш сайт медленно грузится, картинки не влезают в экран, а шрифт такой маленький, что и с лупой не разглядеть, то вы вряд ли попадете на первые строчки выдачи. Такие вещи нужно учитывать при создании сайта и его доработке.

Небольшие дополнительные советы

Установите SSL-сертификат и переезжайте на HTTPS. В Google HTTPS уже становится стандартом. Кроме того, незащищенный сайт обозначается, как, ого!, незащищенный. Это тоже может повлиять на поисковую выдачу. Не забудьте при переезде изменить информацию в Яндекс.Вебмастере, чтобы не потерять страницы в индексе. Для Вебмастера сайты на http и https — разные ресурсы.

Адаптируйте сайт под разные устройства. Смартфоны уже давно заняли головы и руки пользователей, поэтому нужно подумать об адаптации дизайна страничек под мобильные версии. За это вам скажут спасибо и пользователи, и роботы, которые сразу поднимут сайт в выдаче.

У SEO-самурая нет цели, только путь

Чтобы базово настроить поисковую выдачу сайта, не нужно много сил и умений, но нужно терпение, усидчивость и время. Даже идеально настроенный сайт может не выводиться в топы, поэтому нужно постоянно «докручивать» сайт, анализировать поведение пользователей, выявлять ошибки и т.д. То есть, SEO-оптимизация — это процесс, а не какое-то законченное действие. Также советуем внимательно прочитать документации Яндекса и Google.

После того как проведете базовую SEO-оптимизацию и анализ результатов, можно задуматься над более глубоким SEO. Здесь уже стоит обратиться к специалистам, так как нюансов становится слишком много и без помощи будет сложно и долго разбираться. Главное продолжайте заниматься SEO, так как вложения в него хорошо окупятся в будущем.

0
21 комментарий
Написать комментарий...
Виктор Петров

Размах на рубль, удар на копейку. А где ж по теме-то? Тут каждый подзаголовок - на большую статью, а то и несколько.
Ну, и если это реклама хостинга - описали бы хоть, в чём плюшки именно этого хостинга. "Роботс" через файловый менеджер поправить можно вообще везде, сайтмап же ручками ковырять - так себе идея для сайта больше 3-х страниц.
Но вот, скажем, у этих - дёшево и хорошо, эти за три рубля сверху Redis подключат, эти - абузоустойчивые, там хоть обмасштабируйся по самое небалуйся. У вас что из плюшек для вебмастера и для SEO?

Ответить
Развернуть ветку
Рустам Кагарманов

Прям в точку, я уже размял палец что бы скролить каждый пункт SEO оптимизации, а тут бац и Конец(

Ответить
Развернуть ветку
Чайка О.

Что называется, начали за здравие, кончили за упокой.

Ответить
Развернуть ветку
Спринтхост
Автор

Это не реклама хостинга. Статья рассчитана на тех, кто будет делать первые шаги в SEO и изучать эту тему более глубоко в будущем. Мы не пытались до малейших подробностей расписать все в статье. Как вы сами отметили, здесь можно собрать целый цикл статей на эту тему. Возможно, мы так и поступим 🤔

Но насчет плюшек, то все, что вы перечислили, у нас есть 😉

Ответить
Развернуть ветку
Рустам Кагарманов

так вы и начали описывать малейшие подробности, я бы даже сказал что слишком углубились и вдруг прекратили в самом начале.

Ответить
Развернуть ветку
Чайка О.

Кажется, это называется динамить )

Ответить
Развернуть ветку
Рустам Кагарманов

До порога довела) а любви не дала(

Ответить
Развернуть ветку
Чайка О.

Делающим первые шаги в SEO придётся нелегко: ваша статья попадётся им на глаза одной из первых (как размещённая на виси - фабрике инфотопов).

Ответить
Развернуть ветку
Спринтхост
Автор

Без труда новичок не станет профи. Главное, чтобы статьи подталкивали его разбираться и пробовать. Мы отнюдь не претендуем на абсолютное знание. Вообще сложно кому-то претендовать на него 🤔

Ответить
Развернуть ветку
Артем Акулов

Дайте своему копирайтеру другие темы для постинга околорекламных статей. Не надо в seo, ну правда. Тут в основном специалисты с многолетним опытом и крупными проектами за плечами. Читать пятикратно переваренный рерайт рерайта просто надоело.

Вы взяли тему в которой ничего не понимаете и не поймете никогда. Для этого нужны десятки тысяч часов практики, успехи и неудачи. Ссылаетесь на полезность для новичков. Это смешно.

Единственный верный путь для новичка - практика и набивание шишек. Порог входа в seo сейчас высокий в интеллектуальном и денежном эквиваленте. Можно наизусть выучить все статьи из раздела seo на vc и ничего никогда не продвинуть до каких-то значимых результатов. Такие реалии.

Хостинг у вас нормальный, но не нужны пытаться преподносить его преимущества под соусом полезного seo контента. Это не полезно и никому не нужно.

Ответить
Развернуть ветку
Рустам Кагарманов

Ну слушай, такие базовые вещи можно изучить за пару недель) а десятки лет опыта это наверно про SEO в целом и о разных ситуациях, которые встречаются за это время.

Ответить
Развернуть ветку
Алексей Пронин

Зачем статья, зачем это все новичку? Решается все просто и за 5 минут.

Robots.txt копируется типовой для начала - он закроет 99% задач без погружения в тему.

sitemap генерируется автоматом - в этом его смысл. Лезть туда руками очень плохая затея даже для опытного вебмастера.

Битые ссылки - даже не сказано как их править.

Метатеги - на старте не самое важное, а некоторые вообще мусорные, например, кейвордс

При этом Тайтл и h1 в стороне, хотя они-то как раз фундамент.

С SSL еще можно справится, но совет "Адаптируйте сайт под разные устройства" такое себе для новичка...

Все же гораздо проще сейчас - если ты чайник, то бери готовое решение , типа WP, и действуй - там уже все грабли пошагово расписаны без такой вот воды.

Ответить
Развернуть ветку
Рустам Кагарманов

Кстати в оглавлении ,если его можно так назвать есть пункт последний про работу с текстом, а в теле статьи его нет. Делаю вывод что статью писал мало того человек далекий от SEO, ощущение что тупо понахватали там сям базовые формулировки, смешали их и довольно криво подали, так как даже структура статьи никуда не годится.

Ответить
Развернуть ветку
Спринтхост
Автор

Это не оглавление, а просто чек-лист, по которому можно ориентироваться, со всем ли вы поработали.
В статье написано про работу с текстом и контентом сразу после совета про подключение Вебмастера и Analytics 🙃

Ответить
Развернуть ветку
Чайка О.

ТОП-5:
"реклама силами агрегаторов по типу Яндекс и Google"
"SEO, или в простонародье поисковая оптимизация сайта"
"набор потребностей, которые они вводят в поисковике"
"приправляя этот запрос различными эпитетами"
"роботы в прямом смысле просматривают каждую страничку каждого сайта"

Ответить
Развернуть ветку
Рустам Кагарманов

меня тоже смутила первая формулировка) а еще позабавил абзац про то, что SEO это создание крючочков, за которые будет цепляться поисковый робот))

Ответить
Развернуть ветку
Чайка О.

Да, про крючочки совсем неплохо. Но там нет ошибок )

Ответить
Развернуть ветку
Александр Сергеевич

Честно сказать, ничего нового из данной статьи для себя не подчерпнул, всё из здесь описанного известно уже более десяти лет назад! Не понял честно суть статьи?

Ответить
Развернуть ветку
Александр Воловиков

Сделали сайт и будете на 100500 странице, так как сайт молодой. Кстати, этот пункт в Яше уже достал. Не вижу логики, если сайт старый, то на тебе плюшка. Получается в современном мире, где информация течет рекой, мы ждемс пока гуру программисты позволят уникальной информации найти себя. Я понимаю, что время прошло, сайт не спамит, есть какое-то лишнее доверия. Ну надо ж как-то делать 50/50, как Гугл к примеру. Иначе новички ручки сложили, разочаровались, хотя они в своей теме профессионалы. Получается так, человек написал статьи, их особо не прочитали, а прочитали единицы и то, если ты их запостил в соц. сетях и все. Потом удаляешь эти статьи, так как информация стала старой, неактуальной, и пишешь новую. И так 5-ть раз пока Яша тебе поверит. Извращенцы какие-то в поисковой выдаче работают.
Вот к примеру, автор пишет про роботс. Я вот как-то особой разницы с голым роботом и тонко настроенным не увидел. Ну может Яшу меньше кошмарит, если в вордпрессе дубли фигачат. Ну ничего, выдача норм. Сейчас есть обход по счетчикам. Пока статью дописал, только обновил заходишь на переобход, а она уже в индексе по счетчику или через IndexNow влетела. Зачем карта сайта, если по счетчику может влететь. А сейчас до сих пор заморачиваются. А давай еще по 100-200 страниц разобьем, а фото лучше в карту не включать, карта будет большой. Я что-то чем больше знаю про CEO, тем понимаю, что вообще ничего не знаю.

Ответить
Развернуть ветку
Александр Воловиков

Я вот подумал, а не пахнет ли это нарушением антимонопольного законодательства. Если ты новичок, не хочешь заморачиваться с СЕО, то тебе предлагают готовое решение, типа блога на Яндексе. А если хочешь плюшку, тогда нужно быстрые страницы подключить и все равно подарить контент Яше. Какое-то нае..во...

Ответить
Развернуть ветку
Анатолий Потапов

Решающую роль играет конкуренция в сегменте бизнесе в интернете. Если сделать всё по уму и лучше, чем у конкурентов, в топ 10 залететь без проблем

Ответить
Развернуть ветку
18 комментариев
Раскрывать всегда