{"id":14279,"url":"\/distributions\/14279\/click?bit=1&hash=4408d97a995353c62a7353088166cda4ded361bf29df096e086ea0bbb9c1b2fc","title":"\u0427\u0442\u043e \u0432\u044b\u0431\u0435\u0440\u0435\u0442\u0435: \u0432\u044b\u0435\u0445\u0430\u0442\u044c \u043f\u043e\u0437\u0436\u0435 \u0438\u043b\u0438 \u0437\u0430\u0435\u0445\u0430\u0442\u044c \u0440\u0430\u043d\u044c\u0448\u0435?","buttonText":"","imageUuid":""}

Собираем все минус-слова за несколько минут. Пошаговый алгоритм быстрого парсинга в Key Collector

В предыдущей статье мы рассказывали о нашем подходе к парсингу и чистке минус-слов для кампаний Яндекс Директ. Метод показывает свою очень высокую эффективность всегда, для любых ниш и объемов ключевиков. А экономия времени на разработку может достигать десятков часов.

В этой же статье мы дадим пошаговую инструкцию и постараемся раскрыть более подробно все нюансы метода.

Считаем нужным перед инструкцией упомянуть, что описанный алгоритм является универсальным, но никогда не стоит забывать об исключениях. Всегда оценивайте ситуацию.. но лично мы пока не встречали ситуация, когда такой способ чистки совершенно не применим.

Пошаговая инструкция по быстрой чистке запросов и парсинга ключевиков

Для простоты восприятия и наглядности за основу возьмём тематику продажи диванов.

Что нужно для работы:

  • Key Collector — что это и для чего, надеюсь, объяснять не требуется
  • Собранная базисная семантика — в ближайшее время планируем разместить наш подход формирования базиса (быстро и эффективно)
  • Обязательное ознакомление с предыдущей статьей

Теперь приступим…

1. Сбор частотности базовых запросов

1.1. Создаем проект и загружаем базисную семантику в Key Collector

1.2. Собираем частоту всех фраз из базисной семантики

1.3. Выделяем 3-5 высокочастотных фраз на одно направление. В нашем примере рассматриваем вариант с тремя фразами (см. скриншот)

2. Создание группы с тремя высокочастотными запросами

2.1. Создаем группу для выбранных высокочастотных запросов (назовем её «3 ВЧ»)

2.2. Добавляем в группу «3 ВЧ» фразы следующим образом: «слово1 слово1», «слово1 слово2 слово2» (см. скриншот)

2.3. Создаем список минус-слов «(1) общие и мусорные»

2.4. Добавляем общие минуса в список стоп-слов (1). Общие минуса, которые используем мы, можно скачать здесь

2.5. Теперь парсим левую колонку Wordstat в группе с тремя высокочастотными запросами (3 ВЧ), учитывая список стоп-слов (1)

3. Чистка группы с тремя высокочастотными запросами («3 ВЧ»)

3.1. После парсинга группы «3 ВЧ» создаем второй список стоп-слов и называем его: «(2) НЕ удалять». При чистке «3 ВЧ» в этот список мы будем добавлять слова, которые и не добавляем в запросы, и не удаляем.

Это очень важно, чтобы не делать одну и ту же работу два раза – при чистке «3 ВЧ», затем – при чистке основной семантики.

Этот список будет состоять из слов, которые не будут заминусованы, но и прямой таргетинг по ним тоже делать не планируем. Но, в целом, всё остается на усмотрение разработчика, и в каждом конкретном случае ситуация разная.

Пример: «Купить диван Версаль». «Версаль» мы добавим в список «(2) НЕ удалять», чтобы при чистке основной семантики слово «Версаль» не встречалось второй раз.

В список «(2) НЕ удалять» мы добавляем марки, модели, размеры диванов и т.д. – таких слов более 2 000. При чистке основной семантики нам не придется заново убирать эти 2 000 слов.

3.2. Делаем стандартную чистку через «Анализ групп» и все «мусорные» запросы мы добавляем в список стоп-слов «(1) общие минуса», а запросы не для таргетинга в список «(2) НЕ удалять».

Более подробно разбирать процесс чистки мы не будем, информации в интернете много на этот счет

Сам парсинг группы «3 ВЧ» и чистка занимают от 10-15 минут. Да, всего лишь. При этом около 90% минусов по всей базисной семантике попадет в список «(1) общие и мусорные».

Разумеется, в зависимости от ниши время может увеличиваться или уменьшаться.

4. Парсинг основной семантики

4.1. Создаем третий список стоп-слов «(3) только для парсинга» и добавляем в него все минус-слова из списков «(1) общие и мусорные» и «(2) НЕ удалять»

4.2. Возвращаемся к группе(ам) с базисной семантикой и парсим её(их) со списком слов «(3) только для парсинга»

Базисная семантика спарсится без «мусорных» запросов и запросов с марками, моделями, размерами и т.д. Таким образом нам не придется заново убирать огромное количество слов (они у нас в списке (2)), помимо «мусорных».

5. Окончательная чистка основной семантики

5.1. Проводим стандартную чистку спаршенной базисной семантики через «Анализ групп» от оставшихся 10% «мусорных» запросов. С учетом всех проделанных операций, чистка будет проходить очень быстро.

Минуса добавляем в список минус-слов «(1) общие и мусорные» – он и будет окончательным списком минус-слов для кампании.

5.2. Удаляем дубли с помощью «Анализ неявных дублей»

5.3. На выходе у нас получается практически идеально чистая семантика

Даже с достаточно обширной семантикой вся работа займёт несколько часов вместо нескольких дней. Теперь вы сможете сосредоточиться на грамотном формировании объявлений, повышая отдачу от вложений.

Очень надеемся, что наш метод будет полезен коллегам.

Если остались вопросы или есть чем дополнить нашу идею — пишите в комментарии.

0
6 комментариев
Написать комментарий...
Андрей Родионов

А почему считаете, что не надо таргетироваться на модели/бренды?

Ответить
Развернуть ветку
UpFly
Автор

Это в конкретном примере, допустим, мы не продаем данные модели и бренды.

По таким запросам в итоге будем показываться, но в списке запросов в РК их не будет.

Но, как мы и написали выше, это остается на усмотрение разработчика

Ответить
Развернуть ветку
Максим Бакуменко

В принципе, если выбрать ВЧ характеризующие нишу - должно сработать. 

Ответить
Развернуть ветку
Олег Курочкин

здравствуйте. Интересный способ, спасибо. Как собираете в гугле/ливинтернете/ютубе ключи (если идти по вкладкам КК) - также с кавычками или так не работает?

Ответить
Развернуть ветку
Станислав Бродягин

Кей коллектор не работает?

Ответить
Развернуть ветку
Станислав Бродягин

Или работает

Ответить
Развернуть ветку
3 комментария
Раскрывать всегда