Базовая SEO-оптимизация
Сделали сайт, разместили в «Спринтхост», а в поисковой выдаче выдается на 100500 странице. Что делать? Разберемся вместе с коллегами из pr-cy.ru.
Алгоритм базовой оптимизации
Если нет денюжек на рекламу силами агрегаторов по типу Яндекс и Google, то на помощь приходит SEO, или в простонародье поисковая оптимизация сайта. Про SEO сейчас многое написано, это очень известная история для продвижения сайтов, но даже такого количества написанного не хватит, чтобы полностью раскрыть тему SEO. В том числе и эта статья описывает лишь верхушку айсберга.
В чем заключается SEO? Чтобы попасть на сайт, его нужно найти в интернете. Потенциальные посетители и клиенты не знают ни названия сайта, ни компании — ничего, что могло бы напрямую привести их на веб-ресурс. У них есть лишь набор потребностей, которые они вводят в поисковике.
Например, человек ищет хостинг, соответственно, он вводит в строку «хостинг», приправляя этот запрос различными эпитетами и дополнениями по типу «качественный», «недорогой», «с отзывчивой техподдержкой» и т.д. Поисковая система выдаст список ресурсов, подходящих под этот запрос. В Яндексе, например, сверху будут идти рекламные ссылки, за вывод которых компании заплатили системе — они будут всегда сверху, это неорганическая выдача. Ниже будут показываться те сайты, которые наиболее подходят под запрос.
Поисковые роботы в прямом смысле просматривают каждую страничку каждого сайта, чтобы определить их содержимое и затем вывести под подходящий запрос. Соответственно, сайт хостинг-провайдера должен иметь в себе некие триггеры и «крючочки», за которые роботы и ухватятся. Грубо говоря, SEO-оптимизация занимается созданием этих триггеров и «крючочков».
Что нужно для базовой SEO-оптимизации?
Сделаем чек-лист, чтобы было проще ориентироваться:
- Аудит;
- Сервисы аналитики;
- Техническая оптимизация;
- Работа с текстом, наполнением сайта и исправление ошибок.
В первом случае анализируется все, что есть перед началом оптимизации. Подразумевается, что у вас уже имеется сайт, который нужно продвигать — заниматься SEO без сайта то же самое, что и играть в футбол без мяча :)
У вас есть готовый сайт. На нем нужно проанализировать качество контента, проверить ошибки (грамматика, битые ссылки, несоответствия), скорость прогрузки страниц и их индексацию.
Подключите Яндекс.Метрику и Google Analytics, чтобы анализировать поведение пользователей и смотреть, по каким фразам они находят сайт. Яндекс.Вебмастер и Google Search Console нужны для работы с индексацией страниц, проверок ошибок, оптимизации.
Работа над контентом является важной составляющей оптимизации. Заголовки должны быть релевантны запросам пользователей, описания с разными, но близкими по смыслу словосочетаниями, а сам текст должен совпадать с тем, что ищут в интернете. То есть если у вас сайт — это магазин по продаже плюшевых игрушек, то и описание должно быть связано с этой темой, нужно использовать заголовки и контент, которые поисковые роботы смогут соотнести с тем, что люди вбивают в поисковике.
Под технической оптимизацией подразумевается работа с sitemap, robots.txt. Также нужно убрать битые ссылки и дубли страниц — роботы такое не любят и понижают сайт в выдаче.
Robots.txt и sitemap
robots.txt — текстовый файл, в котором указаны правила индексации сайта. С его помощью можно регулировать частоту обращений поисковых роботов, запретить индексирование отдельных страниц или всего сайта.
Сам файл нужно разместить в корневой директории сайта и прописать в нем необходимые правила.
Здесь упомянем основные директивы:
- User-agent
В первой строке нужно указать правило User-agent. Оно определяет тех роботов, которым можно индексировать сайт.
User-agent: Yandex — только для роботов Яндекса;
User-agent: * — для всех существующих роботов.
- Disallow, Allow
Эти директивы ограничивают доступ роботам к определенным страницам. Например, можно закрыть административную часть сайта.
Disallow запрещает индексацию, Allow разрешает индексировать отдельные ссылки внутри запрещенных.
Allow: /public
Disallow: /
По этому примеру на сайте ничего нельзя индексировать, кроме страниц вида domain.ru/public
Директивы работают со специальными символами «*» и «$». Символ «*» задает последовательность из неограниченного количества символов (0 и более):
Disallow: /catalog/*.html — запрет доступа ко всем страницам из раздела catalog с расширением .html.
Символ «$» жестко указывает на конец правила:
Disallow: /catalog/boxs$ — запрет индексирования страницы domain.ru/catalog/boxs , но, например, доступ к domain.ru/catalog/boxs.html роботы смогут получить.
- Clean-param
Порой в ссылках содержатся параметры (идентификаторы сессий, пользователей), которые не влияют на содержимое страницы.
Например, у вас есть каталог товаров, которые можно отфильтровать. После этого получится следующий набор ссылок:
domain.ru/catalog
domain.ru/catalog? =1
domain.ru/catalog?product=2
Первая ссылка включает в себя весь каталог продуктов, поэтому индексация этой же страницы с параметрами не нужна. Чтобы убрать лишние ссылки, используйте это правило:
Clean-param: product /catalog
Указать несколько параметров можно через символ «&»:
Clean-param: product&price /catalog
Clean-param ускоряет индексацию и снижает нагрузку на сервер.
- Sitemap
Sitemap указывает роботу расположение карты сайта:
Sitemap: http://domain.ru/sitemap.xml
Также нужно указать ссылку на Sitemap в вебмастере Яндекса и Google.
- Можно вообще отключить индексацию сайта, указав правила:
User-agent: *
Disallow: /
При составлении файла robots.txt желательно ознакомиться со справочной информацией поисковиков, так как некоторые правила могут не поддерживаться или игнорироваться роботами. Часть директив можно указать в вебмастере, например, ограничить количество запросов к сайту.
Перейдем к sitemap. Он нужен, чтобы робот быстрее распознал структуру сайта и быстрее провел индексацию страниц. Есть два несложных способа автоматического создания карты сайта: генераторы sitemap и плагины в CMS.
В интернете можно найти бесплатные генераторы с различными настройками. Но они подойдут для ресурсов, которые редко обновляются — карту нужно будет генерировать заново каждый раз при создании новых страниц.
Для тех, кто пользуется CMS, есть возможность установить плагин, который создаст и будет автоматически обновлять sitemap. Например, для Wordpress подойдет плагин Google XML Sitemaps, для Joomla — Sitemap Generator, в 1С-Битрикс такой компонент включен по умолчанию.
После добавления карты должно пройти время, в течение которого сайт будет проиндексирован поисковиками. Сам файл также должен быть расположен в корневой директории сайта.
Битые ссылки и теги
Битые ссылки появляются, когда начинаешь работать со ссылочной массой. Например, на каком-нибудь сайте или в соцсети есть ссылка на раздел вашего сайта. В какой-то момент вы решили обновить раздел или вообще его удалить, но ссылка на него осталась. Когда пользователь переходит по ней, то получает ошибку. Это плохо как для SEO, так и для бизнеса в целом, так как пользователь не станет разбираться в причинах ошибки и просто уйдет к конкуренту.
Кроме того, важно прописывать теги на страницах. Они добавляются в раздел HTML-кода.
Перечислим основные метатеги:
- Description — описание сайта в результатах поиска;
- Keywords — ключевые слова, которые помогают определить соответствие сайта поисковым запросам;
- Robots — инструкции по сканированию и индексированию страниц роботами. Вместо robots можно прописать yandex или googlebot, чтобы инструкцию понимал робот конкретной поисковой системы;
- Viewport — нужен, если у вас есть адаптация на мобильные устройства;
- Content-Type — указывает на тип контента.
У Google и Яндекс прописаны рекомендации по заполнению тегов, советуем почитать.
Поисковые системы отдают предпочтение адаптированным сайтам с быстрой загрузкой контента. Если ваш сайт медленно грузится, картинки не влезают в экран, а шрифт такой маленький, что и с лупой не разглядеть, то вы вряд ли попадете на первые строчки выдачи. Такие вещи нужно учитывать при создании сайта и его доработке.
Небольшие дополнительные советы
Установите SSL-сертификат и переезжайте на HTTPS. В Google HTTPS уже становится стандартом. Кроме того, незащищенный сайт обозначается, как, ого!, незащищенный. Это тоже может повлиять на поисковую выдачу. Не забудьте при переезде изменить информацию в Яндекс.Вебмастере, чтобы не потерять страницы в индексе. Для Вебмастера сайты на http и https — разные ресурсы.
Адаптируйте сайт под разные устройства. Смартфоны уже давно заняли головы и руки пользователей, поэтому нужно подумать об адаптации дизайна страничек под мобильные версии. За это вам скажут спасибо и пользователи, и роботы, которые сразу поднимут сайт в выдаче.
У SEO-самурая нет цели, только путь
Чтобы базово настроить поисковую выдачу сайта, не нужно много сил и умений, но нужно терпение, усидчивость и время. Даже идеально настроенный сайт может не выводиться в топы, поэтому нужно постоянно «докручивать» сайт, анализировать поведение пользователей, выявлять ошибки и т.д. То есть, SEO-оптимизация — это процесс, а не какое-то законченное действие. Также советуем внимательно прочитать документации Яндекса и Google.
После того как проведете базовую SEO-оптимизацию и анализ результатов, можно задуматься над более глубоким SEO. Здесь уже стоит обратиться к специалистам, так как нюансов становится слишком много и без помощи будет сложно и долго разбираться. Главное продолжайте заниматься SEO, так как вложения в него хорошо окупятся в будущем.
Размах на рубль, удар на копейку. А где ж по теме-то? Тут каждый подзаголовок - на большую статью, а то и несколько.
Ну, и если это реклама хостинга - описали бы хоть, в чём плюшки именно этого хостинга. "Роботс" через файловый менеджер поправить можно вообще везде, сайтмап же ручками ковырять - так себе идея для сайта больше 3-х страниц.
Но вот, скажем, у этих - дёшево и хорошо, эти за три рубля сверху Redis подключат, эти - абузоустойчивые, там хоть обмасштабируйся по самое небалуйся. У вас что из плюшек для вебмастера и для SEO?
Прям в точку, я уже размял палец что бы скролить каждый пункт SEO оптимизации, а тут бац и Конец(
Что называется, начали за здравие, кончили за упокой.
Это не реклама хостинга. Статья рассчитана на тех, кто будет делать первые шаги в SEO и изучать эту тему более глубоко в будущем. Мы не пытались до малейших подробностей расписать все в статье. Как вы сами отметили, здесь можно собрать целый цикл статей на эту тему. Возможно, мы так и поступим 🤔
Но насчет плюшек, то все, что вы перечислили, у нас есть 😉
так вы и начали описывать малейшие подробности, я бы даже сказал что слишком углубились и вдруг прекратили в самом начале.
Кажется, это называется динамить )
До порога довела) а любви не дала(
Делающим первые шаги в SEO придётся нелегко: ваша статья попадётся им на глаза одной из первых (как размещённая на виси - фабрике инфотопов).
Без труда новичок не станет профи. Главное, чтобы статьи подталкивали его разбираться и пробовать. Мы отнюдь не претендуем на абсолютное знание. Вообще сложно кому-то претендовать на него 🤔
Дайте своему копирайтеру другие темы для постинга околорекламных статей. Не надо в seo, ну правда. Тут в основном специалисты с многолетним опытом и крупными проектами за плечами. Читать пятикратно переваренный рерайт рерайта просто надоело.
Вы взяли тему в которой ничего не понимаете и не поймете никогда. Для этого нужны десятки тысяч часов практики, успехи и неудачи. Ссылаетесь на полезность для новичков. Это смешно.
Единственный верный путь для новичка - практика и набивание шишек. Порог входа в seo сейчас высокий в интеллектуальном и денежном эквиваленте. Можно наизусть выучить все статьи из раздела seo на vc и ничего никогда не продвинуть до каких-то значимых результатов. Такие реалии.
Хостинг у вас нормальный, но не нужны пытаться преподносить его преимущества под соусом полезного seo контента. Это не полезно и никому не нужно.
Ну слушай, такие базовые вещи можно изучить за пару недель) а десятки лет опыта это наверно про SEO в целом и о разных ситуациях, которые встречаются за это время.
Зачем статья, зачем это все новичку? Решается все просто и за 5 минут.
Robots.txt копируется типовой для начала - он закроет 99% задач без погружения в тему.
sitemap генерируется автоматом - в этом его смысл. Лезть туда руками очень плохая затея даже для опытного вебмастера.
Битые ссылки - даже не сказано как их править.
Метатеги - на старте не самое важное, а некоторые вообще мусорные, например, кейвордс
При этом Тайтл и h1 в стороне, хотя они-то как раз фундамент.
С SSL еще можно справится, но совет "Адаптируйте сайт под разные устройства" такое себе для новичка...
Все же гораздо проще сейчас - если ты чайник, то бери готовое решение , типа WP, и действуй - там уже все грабли пошагово расписаны без такой вот воды.
Кстати в оглавлении ,если его можно так назвать есть пункт последний про работу с текстом, а в теле статьи его нет. Делаю вывод что статью писал мало того человек далекий от SEO, ощущение что тупо понахватали там сям базовые формулировки, смешали их и довольно криво подали, так как даже структура статьи никуда не годится.
Это не оглавление, а просто чек-лист, по которому можно ориентироваться, со всем ли вы поработали.
В статье написано про работу с текстом и контентом сразу после совета про подключение Вебмастера и Analytics 🙃
ТОП-5:
"реклама силами агрегаторов по типу Яндекс и Google"
"SEO, или в простонародье поисковая оптимизация сайта"
"набор потребностей, которые они вводят в поисковике"
"приправляя этот запрос различными эпитетами"
"роботы в прямом смысле просматривают каждую страничку каждого сайта"
меня тоже смутила первая формулировка) а еще позабавил абзац про то, что SEO это создание крючочков, за которые будет цепляться поисковый робот))
Да, про крючочки совсем неплохо. Но там нет ошибок )
Честно сказать, ничего нового из данной статьи для себя не подчерпнул, всё из здесь описанного известно уже более десяти лет назад! Не понял честно суть статьи?
Сделали сайт и будете на 100500 странице, так как сайт молодой. Кстати, этот пункт в Яше уже достал. Не вижу логики, если сайт старый, то на тебе плюшка. Получается в современном мире, где информация течет рекой, мы ждемс пока гуру программисты позволят уникальной информации найти себя. Я понимаю, что время прошло, сайт не спамит, есть какое-то лишнее доверия. Ну надо ж как-то делать 50/50, как Гугл к примеру. Иначе новички ручки сложили, разочаровались, хотя они в своей теме профессионалы. Получается так, человек написал статьи, их особо не прочитали, а прочитали единицы и то, если ты их запостил в соц. сетях и все. Потом удаляешь эти статьи, так как информация стала старой, неактуальной, и пишешь новую. И так 5-ть раз пока Яша тебе поверит. Извращенцы какие-то в поисковой выдаче работают.
Вот к примеру, автор пишет про роботс. Я вот как-то особой разницы с голым роботом и тонко настроенным не увидел. Ну может Яшу меньше кошмарит, если в вордпрессе дубли фигачат. Ну ничего, выдача норм. Сейчас есть обход по счетчикам. Пока статью дописал, только обновил заходишь на переобход, а она уже в индексе по счетчику или через IndexNow влетела. Зачем карта сайта, если по счетчику может влететь. А сейчас до сих пор заморачиваются. А давай еще по 100-200 страниц разобьем, а фото лучше в карту не включать, карта будет большой. Я что-то чем больше знаю про CEO, тем понимаю, что вообще ничего не знаю.
Я вот подумал, а не пахнет ли это нарушением антимонопольного законодательства. Если ты новичок, не хочешь заморачиваться с СЕО, то тебе предлагают готовое решение, типа блога на Яндексе. А если хочешь плюшку, тогда нужно быстрые страницы подключить и все равно подарить контент Яше. Какое-то нае..во...
Решающую роль играет конкуренция в сегменте бизнесе в интернете. Если сделать всё по уму и лучше, чем у конкурентов, в топ 10 залететь без проблем