UpFly

+55
с 2020
23 подписчика
26 подписок

В целом вы правильно говорите, только если у вас есть эти списки, т.е. вы уже работали в этой или схожей нише. Так же учитывайте, что от региона могут серьезно зависеть и наборы минусов.

Описанный вами подход действительно вполне рабочий, больше скажу, для быстрого старта он близок к идеальному, но вот сопровождать такие проекты, как правило, тот еще геммор + бюджеты могут улетать знатно. Разумеется, от нише к нише всё меняется, но в среднем так и будет.

Небольшой комментарий по чистке за 15 минут 6к ключей. Если каждый ключ содержит хотя бы одно уникальное слово - то за 15 минут в экселе вы этого не сделаете, даже используя все возможности программы. А в намшем случае ситуация примерно такая и есть.

Насколько мы поняли, в своем комментарии вы высказались не только по содержанию статьи, но и части комментариев выше.

В целом вы говорите всё верно. Яндекс себе не враг, поэтому отжимать последнее ни у кого не будет.

А еще мы заметили, что техподдержка зачастую действительно не совсем понимает как решать те или иные задачи, которые мы перед ними ставим. Всё автоматизировано, ИИ и нейросети решают всё. Люди в этой цепочке исключительно вспомогательный элемент.

Да, есть такая проблема. Но мы с ней работаем.

Секрет простой - надо общаться с техподдержкой, аргументировать, немного давить и постоянно напоминать. И это дает результат всегда. К сожалению, временами требуется время (1-2 месяца), чтобы добиться своего.

Летом 2020 года у одного нашего клиента с РСЯ шло очень много трафа с отказами. В метрике отображалось только около 60% переходов с Директа, а остальные куда то девались. Поддержка сказала, что все в норме, просто возможно не на всех страницах код стоит и т.п. Мы 2 месяца бомбордировали письмами и обращениями, задействовали нашего личного менеджера.. и.. траф стал идти намнго чище и качественнее.

Правда, в последнее время у этого клиента с РСЯ опять проблемы, но как отработать ситуацию мы знаем.

Согласен, что регулярные нововведения, иногда сомнительного характера, не вселяют особого оптимизма. Но вся жизни соткана из сюрпризов. И нам это нравится (возможно у нас что-то не то с организмом).

Мы за эти полтора года стали Сертифицированными партнерами Яндекса и научились принимать всё, что преподносит нам система. И, знаете, у нас очень круто/хорошо/отлично (нужное подчеркнуть) получается.

Ваш выбор понятен, не на одном Яндексе сошелся клином белый свет.

1

Мы не планировали ни хейтить, ни хвалить крупную компанию "Я". 

Доверяй, но проверяй, как говорится.

А вообще, Яндекс диктует правила игры, выживает тот, кто адаптируется и/или находит лазейки.

К сожалению, практически любые корректировки запускают процесс обучения стратегии, который может длится довольно продолжительное время. И даже потом неизвестно, как стратегия себя поведёт. 

Проще говоря, динамически развивающиеся кампании лучше делать с ручными стратегиями или с оптимизацией по кликам или бюджету. По крайней мере пока. 

1

Вы молодец. Идею поняли абсолютно правильно от и до. 

Наш способ при должном подходе можно адаптировать под разные нужды. 

1

Странный кейс у вас получился. Если вкратце:

1. Пришел клиент
2. Выяснили цели и задачи
3. Проанализировали аудиторию
4. Настроили рекламу
5. Оптимизировали рекламу
6. Получили результат

Судя по цифрам всё хорошо, можно более развернутую информацию, что и как делали. А то не кейс получился, а просто похвалились..

Инструмент в перспективе и при должном развитии будет действительно крайне интересным. Но на текущий момент мы столкнулись с рядом минусов, которые перевешивают плюсы.

1. Бюджетозависимость - при очень скромных бюджетах стратегия работать попросту не будет.

2. Масштабируемость - "усилять" (так говорят некоторые наши клиенты) такие кампании фактически нельзя, только за счет расширения семантики и форматов РК.

3. Управляемость - как и сказал автор, с этим проблемы, а очень часто это ключевой момент.

4. Часто завышенная стоимость лида - для любого бизнеса есть своя допустимая стоимость конверсии, например, 300 р за лид, в ручной стратегии можно добиться этих результатов и иметь нужное количество конверсий. При такой стратегии Яндекс может рекомендовать выставить стоимость 700р, что недопустимо. При указанной цене в 300р будет давать 2-3 лида в неделю.

5. Некорректное распределение трафика - в кампаниях, как правило, присутствуют разные наборы запросов, и трафик может тупо идти условно на одну группу, а остальные давать крохи.. 

6. Практически любые корректировки кампаний (тексты, заголовки и т.д.) приводят к переформированию стратегии, которая может идти несколько недель. И всё это время вполне возможна ситуация, когда лидов нет вообще, но и бюджеты не улетают.

Но, в целом, перспективы очень позитивные.

3

Мы не знаем как комментировать ваше громкое заявление, потому что оно никакого отношения к статье не имеет. 

При внимательном прочтении и должном уровне опыта в разработке ваша мысль даже возникнуть не может. То, о чем вы пишите, устраняется на этапе формирования базисной семантики и ее прасинга после чистки. И устраняется легко и непринужденно

Какое отношение формирование базиса имеет к конкретно нашей идее - загадка.

С другой стороны, мы не навязываем свое мнение. Те кто понял идею, понял каким образом ее применять, у того всё будет хорошо. Кому-то, видимо как и вам, удобнее по старинке. Что ж, коллега, выбор ваш!

Это в конкретном примере, допустим, мы не продаем данные модели и бренды.

По таким запросам в итоге будем показываться, но в списке запросов в РК их не будет.

Но, как мы и написали выше, это остается на усмотрение разработчика

Да, очень хорошее замечание.

Во время чистки периодически выскакивают слова, которые с ходу сложно соотнести - берем или минусуем. Именно поэтому все наши разработчики перед формированием базиса и, соответственно, чистки и всего прочего изучают нишу.

Любое сомнительное слово проверяется, например, в том же Вордстате. Как показывает практика, таких сомнительных слов встречается мало. Разумеется, есть ниши, где таких слов почти через одно, но и с этим можно работать, если изначально базис сформирован корректно и ниша изучена.

Вообще, правильная базисная семантика - это уже пол дела.

В нашей практике был случай с минусацией фразы "трейд ин".. Сколько вариаций мы не добавляли, всегда появлялись новые: трындын, тырым дым, тындын..

И это писали реальные люди...

1

Спасибо и вам. Мы всё-таки попробуем раскрыть все премудрости идеи. 
Основная проблема - это недостаточный уровень базовых знаний. А без него действительно может быть сложно понять смысл

Дмитрий, согласен, что есть сервисы, которые позволяют делать всё намного быстрее. Этот метод именно для Кей Коллектора.

Но, 4-5 тыс запросов после парсинга превращаются в сотни тысяч запросов, чистить которые ну очень долго.

В принципе же наш способ можно адаптировать к различным инструментам, если приложить голову и опыт. И даже быстрый парсинг можно еще ускорить.

В принципе наш метод совершенно необязателен для использования. Разработан он с целью сокращения времени на чистку и парсинг базиса. А время сокращается за счет разделения на 2 этапа: Парсинг для чистки и Парсинг базиса. Каждый из этапов при правильном подходе сокращает количество обрабатываемой информации в десятки, а то и сотни раз.

Поэтому, если вы хотите крыжить сотни тысяч запросов, то можно собрать сразу всю семантику и работать с ней. Мы предпочитаем чистить не более 10 000 - 15 000 фраз.

Да, а инструмент - это Кей Коллектор. Более детальная информация, как и писал ранее, будет чуть позже размещена.

1. Да, парсить потом нужно будет в полном объеме весь базис, но уже с применением собранных минусов, что сократит объем парсинга в сотни раз.
2. Разумеется вордстат не покажет фразу "купить окна сердито", так же как и "купить окна дешево сердито", потому что показов 0. Если по фразе будут показы, то и в "пластиковые окна окна" покажет. Есть исключения для очень жирных запросов, где просто невероятное количество вариаций, но таких немного и даже их этот метод позволит выявить, если немного скорректировать алгоритм.

1. Да, парсить потом нужно будет в полном объеме весь базис, но уже с применением собранных минусов, что сократит объем парсинга в сотни раз.
2. Разумеется вордстат не покажет фразу "купить окна сердито", так же как и "купить окна дешево сердито", потому что показов 0. Если по фразе будут показы, то и в "пластиковые окна окна" покажет. Есть исключения для очень жирных запросов, где просто невероятное количество вариаций, но таких немного и даже их этот метод позволит выявить, если немного скорректировать алгоритм.

К сожалению, или, к с частью, но действительно многие не до конца знают как работает вордстат в таком случае.

Если пойти от азов, то по запросу "пластиковые окна" мы получим список фраз, в которых есть слова пластиковые и окна в разных словоформах. Это известно всем.

Если мы закавычим запрос "пластиковые окна", то мы увидим только одну фразу, думаю, понятно какую.

Если же мы напишем в кавычках "пластиковые окна окна" или "пластиковые пластиковые окна", то получим список фраз, в которые есть слово пластиковые, слово окна и любое другое слово в различных словоформах и в различном порядке. При этом каждая из полученных фраз будет содержать в себе другие фразы из 4, 5 и т.д. слов.

По итогу мы получим список всех слов, которые пользователи забивают вместе с фразой "пластиковые окна". Фактически, новых слов в 4, 5 и т.д. словных фразах будет около 10%.

А вот как получить остальные 10% - это уже будет в следующей статье, скоро ее разместим.

Спасибо за указание на ошибку.. разумеется 2000 фраз.

Как правило, не более 40 страниц по 50 запросов, но иногда бывает и больше, 42-42 страницы.

Павел, суть нашего метода как раз в том, что список минусов получается более полным, чем при классическом подходе.

Прокси и аккаунты если и ускорят процесс, то незначительно.

Плюс важный момент. Если очень глубоко парсить весь базис, может получится грязная семантика из многих сотен тысяч запросов, чистить их крайне муторно. В нашем случае даже в "жирных" нишах достаточно обработать несколько тысяч (может 10-15 максимум). Иначе говоря, объем парсинга и чистки уменьшается в десятки раз, а качество от этого не просто не страдает, а во многих случаях только улучшается.

Это не просто утверждение, мы проверяли.

Спасибо за комментарий.
Завтра планируем разместить пошаговую инструкцию, не пропустите.

Если парсить сразу, это часы и даже десятки часов. А несколько самых частотных базисных, несколько минут. 

После чистки формируется список минусов, который при основном парсинге базиса будет учитываться.  Соответственно, глубина парсинга сокращается в десятки, а то и сотни раз. Время парсинга также сократится, и сократиться значительно. 

Суть метода - это ускорение процесса чистки и формирования семантики. 

3

Вот это очень конструктивный комментарий.

В том и фишка, что не потребуется парсить "ремонт стиральных машин машин машин машин машин", а достаточно "ремонт стиральных машин машин". Суть в том, что в данном случае спарсятся все фразы из 4 слов, три из которых ремонт, стиральная, машина в разном порядке и словоформах.

На выходе мы получим список фраз (в большинстве случаев меньше 1000 штук) с частотностями. А самое интересное, что все спаршенные фразы - это базисные словосочетания для 5, 6, 7 и т.д. словных фраз. 

Тем самым мы получаем весь (иногда почти весь) список слов, которые пользователи вводят вместе с фразой ремонт стиральных машин. 

Частотности нам в этом парсинге не нужны (ну разве что для ориентира по объему заминусованных фраз).

Попробуйте сами, и вы увидите, как прекрасен мир. Для удобства, вот ссылка на Вордстат https://wordstat.yandex.ru/#!/?words=%22%D1%80%D0%B5%D0%BC%D0%BE%D0%BD%D1%82%20%D1%81%D1%82%D0%B8%D1%80%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D1%85%20%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%20%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%22

Максим, мы не совсем понимаем чем мы заслужили негатив с вашей стороны?

Данный метод служит для поиска минусов, а не для формирования конечной семантики. В пошаговом алгоритме, статью о котором мы в ближайшее время разместим, чётко указано как затем парсить именно семантику, по которой будет показываться реклама.

Акцентирую внимание на том, что метод с использованием кАвычек - это подготовка к основному парсингу.
Забегая вперед, благодаря нашему подходу основная семантика также парсится во много раз быстрее и уже фактически в чистом виде.

Судя по вашим комментариям, вы просто не поняли суть нашей идеи и построили выводы неверно. 

1