Нестандартная точка роста в SEO: аналитика поиска внутри сайта
В этой статье мы поделимся опытом построения дополнительной стратегии SEO-продвижения сайта нашего клиента.
Благодаря анализу данных можно узнать, что ищут пользователи, и создавая отсутствующие посадочные страницы, удовлетворять их спрос.
По этому проекту мы работали давно, и для поиска новых точек роста решили обратиться к аналитике внутрисайтового поиска. Это хорошая возможность проанализировать реальные поисковые запросы пользователей, так как эта метрика показывает нам, что искал и не нашел пользователь, зашедший к нам на сайт. А также это возможность увидеть, что плохо структурировано или плохо представлено на сайте. Внутренний поиск необходимо анализировать с помощью Google Analytics и затем применять полученные данные для улучшения показателей SEO.
Как анализировать поиск по сайту?
Через отчет в Google Analytics мы можем:
- узнать, как пользователи используют поиск на вашем сайте
- какие запросы вводят
- помогают ли результаты увеличить показатель вовлеченности
- отследить действия пользователей через поиск
- применить полученные данные для улучшения SEO
Переходим в Google Analytics. Затем раздел “Поведение”, “Контент сайта”, выбираем “Все страницы”.
Далее в поле «Параметр запроса» укажите параметр, который используется для поиска по сайту.
Для того чтобы узнать, какой у вашего поиска по сайту паттерн, нужно перейти на сайт и в поиске ввести запрос. В URL мы увидим “search”, это и будет нашим регулярным выражением для поиска. В параметрах запроса может быть как одна буква, так и слово или несколько слов (term, search, query). Все зависит от CMS-сайта или фантазии разработчика.
Теперь мы видим список всех запросов, которые ищет пользователь, и страницы, которые он посещает.
Также в полученном отчете мы можем наблюдать важные метрики. Метрики - это количественные показатели, например, “Средняя длительность просмотра страницы” и “Показатель отказов”.
Проанализировав вышеуказанные показатели, следует сделать выводы:
- удовлетворены ли пользователи результатами поиска по сайту
- что находят/не находят пользователи на сайте
Исходя из собранных данных, мы можем создавать посадочные страницы, изменять навигацию, переименовывать категории и т.д. Но делать это следует с умом, проверяя спрос, релевантность и позиции.
Разберем практический пример:
У нас есть ряд поисковых запросов от пользователя и мы хотим понять, находил ли пользователь ответы на свои запросы.
Это нам поможет понять корректность работы поиска, верности заполнения характеристик или текстового описания товаров и, возможно, что-то еще, в зависимости от вашей фантазии. Но чтобы разобраться в этом вопросе, давайте сначала выясним, что такое парсинг.
Парсинг
Простыми словами, парсинг – это автоматизированный сбор информации с любого сайта, ее анализ, преобразование и выдача в структурированном виде, чаще всего в виде таблицы с набором данных.
Для парсинга сайта нам необходим парсер.
Парсер сайта — это любая программа или сервис, которая осуществляет автоматический сбор информации. Парсеры «обходят» сайт и собирают данные, которые соответствуют заданному условию.
Для чего нам это нужно?
Ранее через отчет в GA мы выгрузили ссылки, но как понять, какое количество товаров посетители находили в результатах поиска? Для этого мы и используем парсер. Существует множество парсеров, в статье мы будем рассматривать Screaming Frog SEO Spider.
Screaming Frog SEO Spider
Мы будем использовать Screaming Frog для парсинга ссылок.
Этапы парсинга
- определяем параметры или паттерны для парсинга данных
- готовим Xpath-запросы и указываем их в настройках Screaming Frog SEO Spider
- запускаем краулер в работу
Напомним, у нас присутствует n-страниц результатов поиска, которые пользователи запрашивают, используя внутренний функционал. На данных страницах располагаются товары. Для того чтобы спарсить количество товаров с указанных страниц, нам потребуется XPath. Связка XPath с краулером позволит быстро собрать и получить эту информацию в удобной для работы форме.
Что же такое XPath?
Парсинг работает на основе XPath-запросов. XPath — язык запросов, который обращается к определенному участку кода страницы (DOM) и собирает из него заданную информацию.
Чтобы краулер собрал нужную информацию, требуется «скормить» ему URL-адреса и сформировать Xpath-запросы.
Если вы ранее не работали с Xpath-запросами, рекомендуем ознакомиться с данным видео. Здесь мы подробно объясняем, как анализировать коммерческие факторы, используя парсинг на Xpath-запросах.
Приступаем к работе
Для начала устанавливаем на свой компьютер расширение XPath.
Открываем любую из полученных нами ссылок из отчета GA и ищем уникальный элемент на странице. Этот элемент может быть в карточке товара или, как в нашем случае, на самой странице.
Запускаем наше расширение и с помощью зажатой клавиши SHIFT выделяем этот уникальный элемент.
У нас получился довольно длинный запрос для парсинга. Требуется сократить его до читаемого вида.
Оставляем //div[@class='sort-left']/div/span
// - как обращение к некому элементу на странице;
div - путь до конкретного элемента;
[ ] - в квадратных скобках указываем через символ @ “класс равен такому-то значению”.
Обязательно проверяем, корректно ли работает наш запрос.
Куда вписывать XPath-запрос
Переходим в Screaming Frog. Загружаем список страниц, по которому он будет ходить (ссылки, полученные из отчета в GA). Для этого на главной панели нажимаем “Mode” > “List”.
Далее нажимаем “Upload”, “Enter Manually”.
Вставляем наши ссылки в открывшееся окно и нажимаем Next.
Теперь добавляем полученный XPath-запрос (//div[@class='sort-left']/div/span). Заходим в “Configuration” > “Custom” > “Extraction”.
В открывшемся окне нажимаем Add, выбираем XPath, добавляем код, нажимаем ОК и кнопку “Start”.
В результате парсинга через XPath-запрос мы получили список данных со страниц сайта, удобный для дальнейшей обработки (столбец Extractor 5.1 на скриншоте ниже).
Экспортируем полученные данные в xlsx или csv-таблицу, нажав на кнопку “Export”. Сохраняем файл.
При открытии документа (xlsx или csv) у вас могут возникнуть проблемы с кодировкой. Пример “абракадабры” из набора символов представлен на скриншоте.
Чтобы документ открылся корректно и все символы были читаемыми, открываем сохраненный документ в Excel, заходим во вкладку “Данные”, “Получение внешних данных”, “Из текста”, и импортируем наш файл.
Затем выбираем “Текст по столбцам” > “с разделителями”.
Далее выбираем “запятая”, “Далее”, “Готово”.
В итоге у нас получается читаемый документ.
Подведем итог
Благодаря полученным данным при сортировке таблицы, мы получаем выборку URL-адресов, где находится мало товаров. Далее мы проверяем позиции и спрос по ключевым словам для этих товаров. Позиции можно легко проверить через сервис Арсенкин - Проверка позиций.
Вводим адрес сайта, перечисляем ключевые запросы, выбираем нужную нам поисковую систему и регион.
В результате проверки мы получаем позиции и релевантные URL-адреса.
Если есть спрос и отсутствует посадочная страница, то мы создаем новую. По созданным страницам мы отслеживаем эффективность, используя инструмент SEOWORK.
Таким образом, используя поиск по сайту и такие инструменты, как Google Analytics, XPath и Screaming Frog, мы можем создавать и оптимизировать страницы, расширяя ассортимент товаров. Зачем человеку страница, на которой он увидит лишь два товара или вовсе ни одного? Он не запомнит ваш сайт и пойдет туда, где ассортимент больше. Поэтому важно отслеживать действия посетителей у вас на сайте.
Авторы статьи: Мария Павленко и Дмитрий Федосеев.
P.s. Подписывайтесь на наш телеграм-канал t.me/seoantteam, чтобы первыми узнавать о выходе новых материалов. И обязательно смотрите наш базовый курс по seo, где мы подробно разбираем основные моменты поисковой оптимизации. Например, начинающим seo-специалистам будет крайне полезно посмотреть лекцию и практику по подробному техническому аудиту, благодаря которым вы сможете самостоятельно проводить подробный техаудит, не прибегая к помощи старших коллег.