SEO глазами аналитика. Как оптимизировать сайт и не навредить ему

Рассмотрим, что аналитику или владельцу продукта нужно знать об азах поисковой оптимизации (SEO) в рамках проектирования системы. Находясь на этапе обновления собственного сайта, мы составили чек-лист – он поможет вам проверить соблюдение ключевых требований SEO.

SEO глазами аналитика. Как оптимизировать сайт и не навредить ему

Немного о поисковой оптимизации

Аналитика, как правило, предваряет разработку сайтов и других систем. Для решения бизнес-задач IT-аналитику нужны широкий кругозор и понимание продукта. Ранее мы описали работу с UX-копирайтингом — а сейчас коснемся SEO.

SEO (search engine optimization), или поисковая оптимизация – это меры, призванные улучшить “видимость” сайта в поисковых системах, увеличить поисковый трафик. Такие меры нужны всем сайтам, от онлайн-магазинов до некоммерческих веб-площадок.

Цель SEO – увеличить трафик за счёт всех способов поиска, востребованных пользователями: картинки, видео, товары, новости и т.д. – всё можно проиндексировать.

SEO условно делят на внутреннюю и внешнюю оптимизацию:

  • Внутренняя – это улучшение содержания ресурса: настройка основного домена, использование ключевых слов, оформление текстов (например, с помощью заголовков разного уровня), оптимизация html-тегов, влияющих на индексацию.
  • Внешняя – это работа с ссылочной массой сайта, её качеством и количеством. Поисковики доверяют тем сайтам, которые цитируют авторитетные веб-ресурсы. В свою очередь, ссылки с некачественных источников способны загубить репутацию сайта.

Об алгоритмах SEO обычно говорят в разрезе двух главных поисковых машин – Яндекс и Google. Остальные поисковики берут выдачу одной из них или их совокупность.

Немного истории

До 1994 года поисковиков в принципе не существовало. Интернет-пользователи либо заходили на сайты по прямому адресу, либо обращались к тематическим каталогам, в которых были собраны разные площадки. Но по мере того, как сайтов становилось больше, появлялись поисковые машины.

Первый поисковик WebCrawler был запущен в 1994 году. Следом за ним последовали Yahoo, AltaVista и Lycos в 1995, из которых до настоящего времени дожил только Yahoo. И наконец, в 1997 на сцену вышли Google и Яндекс.

Первоначально поисковики ориентировались только на информацию в метатегах: title – заголовок страницы, который отображается в названии вкладки (например, «купить машину») и description – невидимое глазу пользователя описание страницы (например, «купить иномарку недорого в Москве»). При совпадении этих метатегов с поисковым запросом, поисковик проверял наличие ключевых слов на страницах сайта («купить машину» должно быть и где-то в тексте). Таким образом и составлялось первоначальное ранжирование.

Примерно в тот же момент и появилось само понятие SEO. И сразу же разделилось на две неотъемлемые части – черное и белое продвижение.

Белое продвижение – то, к чему и стремятся SEO: размещение качественного, полезного и уникального контента, естественное наращивание ссылочной массы, создание и ведение представительств в соцсетях .

Среди черных методов наиболее известны следующие:

  • Переспам – большая концентрация ключевых слов на странице сайта. Такой ресурс в принципе бесполезен для пользователя, но зато может выдаваться в первых строчках результатов поиска.
  • Дорвей – ресурс, созданный исключительно под определённые ключевые слова и генерацию трафика. Сразу производит редирект на другой сайт. Обычно такие страницы содержат бессмысленный текст. Таким образом пользователь обращается на сайт за чем-то одним, а приходит к другому. Этот метод используется до сих пор, но Google и Яндекс активно борются с ним.
  • Клоакинг – на странице одновременно присутствует и контент, предназначенный для пользователей, и переспам метатегов, который позволяет обмануть поисковики. Итоговая страница оказывается совершенно не тем, что искал пользователь. В начале развития SEO именно так работали клоны популярных ресурсов, однако, сейчас клоакинг карается пожизненным баном.

Черное SEO было основным двигателем прогресса и подгоняло поисковики в их развитии. Ниже рассмотрим основные этапы этой борьбы за сердца пользователей.

Ключевые даты

1998 – появление Google с использованием разработанного С.Брином и Л.Пейджем алгоритма PageRank. Это алгоритм вычисления “авторитетности” ресурса на основании качества ссылок на него. Таким образом SEO разделилось на внешний и внутренний контур, что привело к началу ссылочной гонки.

2004 – создание ТИЦ (тематического индекса тестирования) в Яндексе в качестве аналога PageRank.

2009 – выход «Матрикснет» Яндекса: в бой идут алгоритмы машинного обучения. Будучи устойчивым к переобучению, этот алгоритм позволяет учитывать очень много факторов ранжирования, не опасаясь, что машина найдет несуществующие закономерности. Чёрное SEO практически умирает.

2010 – добавление Google в факторы ранжирования истории поиска пользователя. Поиск становится более персонализированным

2012 – «начало конца» для рынка массовой закупки ссылок. Запущен алгоритм Penguin от Google для борьбы с некачественными ссылками.

2015 – появление алгоритма «Минусинск» Яндекса. Алгоритм начал бороться с купленными ссылками и исключать из выдачи ресурсы с низким количеством естественных ссылок. Если раньше можно было прийти в специальное агентство и закупить у него ссылки в большом количестве, то теперь это перестало работать.

2017 – «Баден-Баден» Яндекса. Алгоритм создан для борьбы с переоптимизированными страницами, из-за чего спам ключевых слов и специальные тексты для поисковых машин уходят в прошлое. Лонгриды для SEO более не актуальны. На первое место выходит полезность контента, а не его количество.

2018 – Google внедряет Mobile-First Index. Отныне наличие мобильной версии сайта – один из важных факторов ранжирования.

2019 – Google BERT – нейронная сеть, которая умеет лучше распознавать естественный язык. Теперь поисковику важно не значение слова, а смысл, который в него вкладывает пользователь.

2020 – Google анонсирует Core Web Vitals. Компания объединяет свои сервисы Lighthouse, Chrome DevTools, PageSpeed Insights и Search Console’s Speed Report для определения качества ресурса. Техническая реализация сайта становится не менее важной, чем контент.

2021 – YATI – от машинного обучения до нейросети-трансформера. Алгоритм анализирует смысловую составляющую для того, чтобы максимально точно соотнести намерение пользователя с получаемым им результатом. SEO переходит в разряд “магии” и чудес.

Что аналитику стоит знать о SEO

1) Принципы внутренней оптимизации

  • При планировании ресурса нужно помнить: важны не только тексты.

Чем больше вариантов качественного контента различного формата представлено на странице – тем лучше чувствует себя ресурс в поиске. Инфографика, видео, фото – вообще всё, что может нести полезную для пользователя информацию. При этом просто взять и вставить видео с youtube уже не работает. Если у заказчика нет визуального контента, но он хочет, чтобы его ресурс генерировал трафик – закладываем в прототипы место под такой контент, а заказчика отправляем творить и созидать. Даже если сайт очень красивый и полезный, но с некачественным контентом, он ранжироваться не будет. А потом клиент скажет: “Вы сделали мне плохой сайт”, – и отчасти будет прав.

  • Принцип экспертности, авторитетности, достоверности, также известный как «E-A-T» (от англ. Expertise, Authoritativeness, Trustworthiness)

В первую очередь, нужен ответственный подход к таким страницам, как «Отзывы», «О компании», «Команда/Сотрудники», «Миссия», «Раскрытие информации», «Положение об обработке персональных данных», «Контакты» (включая карту). Постарайтесь подтвердить фактическое существование компании, ее надежность, опыт работы, признание на локальном или глобальном рынке.

На этих страницах не должно быть динамического контента – например, бутстрапов и кнопок «Загрузить ещё». Если контент занимает много места на странице, вы можете сделать пагинацию или разбить его на короткие разделы. Юридическая информация должна быть на виду, иначе есть риск, что поисковики проигнорируют ваш сайт. Кроме того, хорошо структурированный контент – это плюс для usability.

  • Старые методы – не значит плохие. На уровне системы должны быть предусмотрены поля title (название во вкладке), alt (описание для изображений) и description для их последующего заполнения. Крупные конструкторы, такие как Bitrix, WordPress, MODX несут в себе возможность заполнять эти параметры. При разработке с нуля также необходимо помнить об этих параметрах при проектировании системы управления сайтом.
  • Мобильная версия 100% необходима для активных продаж и высоких позиций в поисковой выдаче. В 2021 году сайт без мобильной версии – не сайт. Если её не будет, сайт выпадет из ранжирования Google и получит низкие показатели у Яндекс. В некоторых проектах мобильная версия даже важнее, чем десктоп.
  • На странице обязательно должна быть микроразметка, её основные форматы – Sсhema и Open Graph. Без расширенного сниппета сложно удержаться в выдаче, особенно выше 20 места, поэтому это требование необходимо прописать в ТЗ для реализации frontend-разработки.
  • Конверсия важнее трафика. До начала разработки сайта следует провести анализ рынка, сравнить, как все устроено, какие есть фичи, как можно отстроиться от конкурентов – например, на уровне интерфейса и скорости загрузки сайта.
  • Кстати, о скорости. Помните о правиле «Сайт либо быстрый, либо мертвый». При прочих равных сайт выиграет у конкурентов, если загрузка будет происходить быстрее. Скорость учитывается при ранжировании. Если сайт «тормозит», то у него будут низкие позиции в выдаче, даже если он красивый и наполнен полезными фичами. В ТЗ нужен внимательный подход к выбору платформы для сайта, лицензии, хостинга, фреймворков.

2) Принципы внешней оптимизации

Стоит отметить, что на эти параметры аналитик повлиять не может. Кроме того, внешняя оптимизация постепенно уходит в прошлое: сейчас поисковики обращают внимание только на естественные ссылки.

3) Поведенческие факторы

  • Скорость получения информации. При планировании интерфейсов следуйте правилу 3 кликов: не более 3 кликов для достижения цели. Чем быстрее пользователь на сайте получает то, за чем он пришел, тем выше позиции в ранжировании.

  • Голосовой поиск становится трендом. Принцип действия здесь близок к «хвостам» ключевых слов. Например, к запросу «купить машину» можно добавить подробности: «купить машину в Саратове 2009 года недорого с объемом двигателя 4 литра». Это дополнительные параметры, которые сегментируют запрос по дате, региону, техническим характеристикам и т.д. По оценкам Google, голосовые запросы пользователей часто содержат тот или иной «хвост». Это значит, что SEO-специалист должен принимать участие в написании или проверке текстов на сайте на соответствие требованиям.

  • Обратите внимание на турбо-страницы Яндекса: “лёгкие” версии страниц, которые загружаются примерно в 15 раз быстрее оригиналов благодаря оптимизации верстки для мобильных устройств. Турбо-страницы хранятся на серверах Яндекса, что обеспечивает быстрый доступ к ним для пользователей.

    Если не подготовить турбо-страницу самому, Яндекс сделает это по своим алгоритмам. Однако, в этом случае на нее может не попасть информация, важная для пользователей.

  • Общее качество контента. Аналитик не влияет напрямую на качество, но может дать рекомендации заказчику. При этом контент должен быть оригинальным: не содержать чужого текста или картинок с чужим водяным знаком.

Вывод

При создании ТЗ на разработку нужно учитывать требования SEO. Если эти требования будут упущены на старте, то в дальнейшем исправления потребуют существенно больше ресурсов. Аналитик зачастую стоит у истоков IT-проектов и напрямую общается с заказчиком, поэтому может дать рекомендации для улучшения продукта – это часть заботы о клиенте.

Чек-лист: проверяем систему на соответствие требованиям SEO

В заключение перечислим несколько критериев, которые нужно проверить при планировании системы. Обращаем внимание, что это лишь базовые правила, и в каждом конкретном проекте их следует уточнить с SEO-специалистом.

1) Что продумать на этапе прототипа и ТЗ

  • Убедитесь, что ТЗ прописывает размещение оригинального контента различных форматов: текст, изображения, видео, инфографика.
  • Предусмотрите наличие разделов “Отзывы”, “О компании”, “Команда/Сотрудники”, “Миссия”, “Раскрытие информации”, “Положение об обработке ПД”, “Контакты” и прочих, обеспечивающих авторитетность сайта (принцип E-A-T).
  • Контент из перечисленных разделов, как и весь важный контент с ключевыми словами, должен быть статическим - то есть не предусматривать динамической загрузки.
  • В ТЗ нужно прописать создание title (название страницы во вкладке браузера), alt (описание для изображений) и description для каждой страницы и медиафайла.
  • Предусмотрите адаптацию сайта под мобильные устройства, наличие микроразметки на страницах.
  • Скорость первой загрузки каждой страницы не должна превышать 2 секунды. Также не следует экономить на контенте, хостинге, наличии мобильной версии.
  • Соблюдайте «правило трех кликов»: пользователь должен максимально быстро получать то, зачем он пришёл на сайт.
  • Предусмотрите установку Google Analytics и Яндекс.Метрики для оценки посещаемости и анализа поведения пользователя.

2) Что оценить совместно с SEO-специалистом

  • Контент – он должен быть оригинальным, полезным для пользователя, разнообразным.
  • Наличие и содержание title, alt и description.
  • Генерация Турбо-страниц (Яндекс).
  • Качественная проработка “хвостов” запросов по ключевым словам для голосового поиска.
77
12 комментариев

На странице обязательно должна быть микроразметка, её основные форматы – Sсhema и Open Graph. Без расширенного сниппета сложно удержаться в выдаче, особенно выше 20 места

Вот тут, мягко говоря, вопросики к оратору ))

4

А еще про строгую необходимость Тубро страниц для бесовского Яши)

1

Добрый день. Качество структурирования данных влияет преимущественно на конверсию через CTR, клики и показы. Мы исходим из того, что SEO-оптимизация направлена на продвижение сайта, при этом владелец сайта обычно заинтересован в высокой конверсии

Комментарий удалён модератором

Причем, с "колокольни" автора

Комментарий недоступен

3

Добрый день. В этой статье мы хотели осветить основы SEO, которые могут быть полезны именно аналитикам при проектировании систем для общего понимания вопроса.