{"id":13505,"url":"\/distributions\/13505\/click?bit=1&hash=ca3734639136826288c9056e5c8fa03a05e87c4060ae84df200f2c90f5262470","title":"\u0412\u044b \u0440\u0430\u0437\u0440\u0430\u0431\u043e\u0442\u0447\u0438\u043a? \u0410 \u043f\u043e\u043d\u0438\u043c\u0430\u0435\u0442\u0435 \u0447\u0442\u043e-\u0442\u043e \u0432 \u0438\u0441\u043a\u0443\u0441\u0441\u0442\u0432\u0435 \u043a\u043e\u0434\u0430?","buttonText":"\u041f\u0440\u043e\u0432\u0435\u0440\u0438\u0442\u044c","imageUuid":"f5f0e11f-fefd-52f5-8712-82164a59b7ce","isPaidAndBannersEnabled":false}
SEO
Aleksandr Chepukaytis

Нестандартная точка роста в SEO: аналитика поиска внутри сайта

В этой статье мы поделимся опытом построения дополнительной стратегии SEO-продвижения сайта нашего клиента.

Благодаря анализу данных можно узнать, что ищут пользователи, и создавая отсутствующие посадочные страницы, удовлетворять их спрос.

Рис.0. Нестандартная точка роста в SEO: аналитика поиска внутри сайта.

По этому проекту мы работали давно, и для поиска новых точек роста решили обратиться к аналитике внутрисайтового поиска. Это хорошая возможность проанализировать реальные поисковые запросы пользователей, так как эта метрика показывает нам, что искал и не нашел пользователь, зашедший к нам на сайт. А также это возможность увидеть, что плохо структурировано или плохо представлено на сайте. Внутренний поиск необходимо анализировать с помощью Google Analytics и затем применять полученные данные для улучшения показателей SEO.

Рис.1. Видимость сайта в Яндекс.

Как анализировать поиск по сайту?

Через отчет в Google Analytics мы можем:

  • узнать, как пользователи используют поиск на вашем сайте
  • какие запросы вводят
  • помогают ли результаты увеличить показатель вовлеченности
  • отследить действия пользователей через поиск
  • применить полученные данные для улучшения SEO

Переходим в Google Analytics. Затем раздел “Поведение”, “Контент сайта”, выбираем “Все страницы”.

Рис.2. Переходим в Google Analytics.

Далее в поле «Параметр запроса» укажите параметр, который используется для поиска по сайту.

Рис.3. Указываем параметр запроса.

Для того чтобы узнать, какой у вашего поиска по сайту паттерн, нужно перейти на сайт и в поиске ввести запрос. В URL мы увидим “search”, это и будет нашим регулярным выражением для поиска. В параметрах запроса может быть как одна буква, так и слово или несколько слов (term, search, query). Все зависит от CMS-сайта или фантазии разработчика.

Рис.4. Уточняем паттерн.

Теперь мы видим список всех запросов, которые ищет пользователь, и страницы, которые он посещает.

Рис.5. Список запросов.

Также в полученном отчете мы можем наблюдать важные метрики. Метрики - это количественные показатели, например, “Средняя длительность просмотра страницы” и “Показатель отказов”.

Проанализировав вышеуказанные показатели, следует сделать выводы:

  • удовлетворены ли пользователи результатами поиска по сайту
  • что находят/не находят пользователи на сайте

Исходя из собранных данных, мы можем создавать посадочные страницы, изменять навигацию, переименовывать категории и т.д. Но делать это следует с умом, проверяя спрос, релевантность и позиции.

Разберем практический пример:

У нас есть ряд поисковых запросов от пользователя и мы хотим понять, находил ли пользователь ответы на свои запросы.

Это нам поможет понять корректность работы поиска, верности заполнения характеристик или текстового описания товаров и, возможно, что-то еще, в зависимости от вашей фантазии. Но чтобы разобраться в этом вопросе, давайте сначала выясним, что такое парсинг.

Парсинг

Простыми словами, парсинг – это автоматизированный сбор информации с любого сайта, ее анализ, преобразование и выдача в структурированном виде, чаще всего в виде таблицы с набором данных.

Для парсинга сайта нам необходим парсер.

Рис.6. Что такое парсер?

Парсер сайта — это любая программа или сервис, которая осуществляет автоматический сбор информации. Парсеры «обходят» сайт и собирают данные, которые соответствуют заданному условию.

Для чего нам это нужно?

Ранее через отчет в GA мы выгрузили ссылки, но как понять, какое количество товаров посетители находили в результатах поиска? Для этого мы и используем парсер. Существует множество парсеров, в статье мы будем рассматривать Screaming Frog SEO Spider.

Screaming Frog SEO Spider

Мы будем использовать Screaming Frog для парсинга ссылок.

Этапы парсинга

  • определяем параметры или паттерны для парсинга данных
  • готовим Xpath-запросы и указываем их в настройках Screaming Frog SEO Spider
  • запускаем краулер в работу

Напомним, у нас присутствует n-страниц результатов поиска, которые пользователи запрашивают, используя внутренний функционал. На данных страницах располагаются товары. Для того чтобы спарсить количество товаров с указанных страниц, нам потребуется XPath. Связка XPath с краулером позволит быстро собрать и получить эту информацию в удобной для работы форме.

Рис.7. Что такое XPath?

Что же такое XPath?

Парсинг работает на основе XPath-запросов. XPath — язык запросов, который обращается к определенному участку кода страницы (DOM) и собирает из него заданную информацию.

Чтобы краулер собрал нужную информацию, требуется «скормить» ему URL-адреса и сформировать Xpath-запросы.

Если вы ранее не работали с Xpath-запросами, рекомендуем ознакомиться с данным видео. Здесь мы подробно объясняем, как анализировать коммерческие факторы, используя парсинг на Xpath-запросах.

Приступаем к работе

Для начала устанавливаем на свой компьютер расширение XPath.

Открываем любую из полученных нами ссылок из отчета GA и ищем уникальный элемент на странице. Этот элемент может быть в карточке товара или, как в нашем случае, на самой странице.

Рис.8. Ищем уникальный элемент на странице.

Запускаем наше расширение и с помощью зажатой клавиши SHIFT выделяем этот уникальный элемент.

Рис.9. Выделяем уникальный элемент.

У нас получился довольно длинный запрос для парсинга. Требуется сократить его до читаемого вида.

Рис.10. Сокращаем запрос до читаемого вида.
Рис.11. Нужно подумать.

Оставляем //div[@class='sort-left']/div/span

// - как обращение к некому элементу на странице;

div - путь до конкретного элемента;

[ ] - в квадратных скобках указываем через символ @ “класс равен такому-то значению”.

Обязательно проверяем, корректно ли работает наш запрос.

Рис.12. Проверяем корректность запроса.

Куда вписывать XPath-запрос

Переходим в Screaming Frog. Загружаем список страниц, по которому он будет ходить (ссылки, полученные из отчета в GA). Для этого на главной панели нажимаем “Mode” > “List”.

Рис.13. Переходим в Screaming Frog.

Далее нажимаем “Upload”, “Enter Manually”.

Рис.14. Screaming Frog.

Вставляем наши ссылки в открывшееся окно и нажимаем Next.

Рис.15. Вставляем ссылки.

Теперь добавляем полученный XPath-запрос (//div[@class='sort-left']/div/span). Заходим в “Configuration” > “Custom” > “Extraction”.

Рис.16. Добавляем XPath-запрос.

В открывшемся окне нажимаем Add, выбираем XPath, добавляем код, нажимаем ОК и кнопку “Start”.

Рис.17. Нажимаем Add.

В результате парсинга через XPath-запрос мы получили список данных со страниц сайта, удобный для дальнейшей обработки (столбец Extractor 5.1 на скриншоте ниже).

Рис.18. Список данных.

Экспортируем полученные данные в xlsx или csv-таблицу, нажав на кнопку “Export”. Сохраняем файл.

Рис.19. Экспортируем данные.

При открытии документа (xlsx или csv) у вас могут возникнуть проблемы с кодировкой. Пример “абракадабры” из набора символов представлен на скриншоте.

Рис.20. Проблемы с кодировкой.

Чтобы документ открылся корректно и все символы были читаемыми, открываем сохраненный документ в Excel, заходим во вкладку “Данные”, “Получение внешних данных”, “Из текста”, и импортируем наш файл.

Рис.21. Импортируем файл.

Затем выбираем “Текст по столбцам” > “с разделителями”.

Рис.22. Шаг 1.

Далее выбираем “запятая”, “Далее”, “Готово”.

Рис.23. Шаг 2.

В итоге у нас получается читаемый документ.

Рис.24. Получаем читаемый документ.

Подведем итог

Благодаря полученным данным при сортировке таблицы, мы получаем выборку URL-адресов, где находится мало товаров. Далее мы проверяем позиции и спрос по ключевым словам для этих товаров. Позиции можно легко проверить через сервис Арсенкин - Проверка позиций.

Вводим адрес сайта, перечисляем ключевые запросы, выбираем нужную нам поисковую систему и регион.

Рис.25. Вводим адрес сайта.

В результате проверки мы получаем позиции и релевантные URL-адреса.

Рис.26. Получаем позиции и релевантные URL-адреса.

Если есть спрос и отсутствует посадочная страница, то мы создаем новую. По созданным страницам мы отслеживаем эффективность, используя инструмент SEOWORK.

Рис.27. Отслеживаем эффективность.

Таким образом, используя поиск по сайту и такие инструменты, как Google Analytics, XPath и Screaming Frog, мы можем создавать и оптимизировать страницы, расширяя ассортимент товаров. Зачем человеку страница, на которой он увидит лишь два товара или вовсе ни одного? Он не запомнит ваш сайт и пойдет туда, где ассортимент больше. Поэтому важно отслеживать действия посетителей у вас на сайте.

Авторы статьи: Мария Павленко и Дмитрий Федосеев.

P.s. Подписывайтесь на наш телеграм-канал t.me/seoantteam, чтобы первыми узнавать о выходе новых материалов. И обязательно смотрите наш базовый курс по seo, где мы подробно разбираем основные моменты поисковой оптимизации. Например, начинающим seo-специалистам будет крайне полезно посмотреть лекцию и практику по подробному техническому аудиту, благодаря которым вы сможете самостоятельно проводить подробный техаудит, не прибегая к помощи старших коллег.

0
Комментарии
Читать все 0 комментариев
null