Насколько мы поняли, в своем комментарии вы высказались не только по содержанию статьи, но и части комментариев выше.
В целом вы говорите всё верно. Яндекс себе не враг, поэтому отжимать последнее ни у кого не будет.
А еще мы заметили, что техподдержка зачастую действительно не совсем понимает как решать те или иные задачи, которые мы перед ними ставим. Всё автоматизировано, ИИ и нейросети решают всё. Люди в этой цепочке исключительно вспомогательный элемент.
Да, есть такая проблема. Но мы с ней работаем.
Секрет простой - надо общаться с техподдержкой, аргументировать, немного давить и постоянно напоминать. И это дает результат всегда. К сожалению, временами требуется время (1-2 месяца), чтобы добиться своего.
Летом 2020 года у одного нашего клиента с РСЯ шло очень много трафа с отказами. В метрике отображалось только около 60% переходов с Директа, а остальные куда то девались. Поддержка сказала, что все в норме, просто возможно не на всех страницах код стоит и т.п. Мы 2 месяца бомбордировали письмами и обращениями, задействовали нашего личного менеджера.. и.. траф стал идти намнго чище и качественнее.
Правда, в последнее время у этого клиента с РСЯ опять проблемы, но как отработать ситуацию мы знаем.
Это случайный комментарий
Согласен, что регулярные нововведения, иногда сомнительного характера, не вселяют особого оптимизма. Но вся жизни соткана из сюрпризов. И нам это нравится (возможно у нас что-то не то с организмом).
Мы за эти полтора года стали Сертифицированными партнерами Яндекса и научились принимать всё, что преподносит нам система. И, знаете, у нас очень круто/хорошо/отлично (нужное подчеркнуть) получается.
Ваш выбор понятен, не на одном Яндексе сошелся клином белый свет.
Мы не планировали ни хейтить, ни хвалить крупную компанию "Я".
Доверяй, но проверяй, как говорится.
А вообще, Яндекс диктует правила игры, выживает тот, кто адаптируется и/или находит лазейки.
К сожалению, практически любые корректировки запускают процесс обучения стратегии, который может длится довольно продолжительное время. И даже потом неизвестно, как стратегия себя поведёт.
Проще говоря, динамически развивающиеся кампании лучше делать с ручными стратегиями или с оптимизацией по кликам или бюджету. По крайней мере пока.
Вы молодец. Идею поняли абсолютно правильно от и до.
Наш способ при должном подходе можно адаптировать под разные нужды.
Если не секрет, в чем?
Попробуйте, реально работает на ура!
Странный кейс у вас получился. Если вкратце:
1. Пришел клиент
2. Выяснили цели и задачи
3. Проанализировали аудиторию
4. Настроили рекламу
5. Оптимизировали рекламу
6. Получили результат
Судя по цифрам всё хорошо, можно более развернутую информацию, что и как делали. А то не кейс получился, а просто похвалились..
Инструмент в перспективе и при должном развитии будет действительно крайне интересным. Но на текущий момент мы столкнулись с рядом минусов, которые перевешивают плюсы.
1. Бюджетозависимость - при очень скромных бюджетах стратегия работать попросту не будет.
2. Масштабируемость - "усилять" (так говорят некоторые наши клиенты) такие кампании фактически нельзя, только за счет расширения семантики и форматов РК.
3. Управляемость - как и сказал автор, с этим проблемы, а очень часто это ключевой момент.
4. Часто завышенная стоимость лида - для любого бизнеса есть своя допустимая стоимость конверсии, например, 300 р за лид, в ручной стратегии можно добиться этих результатов и иметь нужное количество конверсий. При такой стратегии Яндекс может рекомендовать выставить стоимость 700р, что недопустимо. При указанной цене в 300р будет давать 2-3 лида в неделю.
5. Некорректное распределение трафика - в кампаниях, как правило, присутствуют разные наборы запросов, и трафик может тупо идти условно на одну группу, а остальные давать крохи..
6. Практически любые корректировки кампаний (тексты, заголовки и т.д.) приводят к переформированию стратегии, которая может идти несколько недель. И всё это время вполне возможна ситуация, когда лидов нет вообще, но и бюджеты не улетают.
Но, в целом, перспективы очень позитивные.
Мы не знаем как комментировать ваше громкое заявление, потому что оно никакого отношения к статье не имеет.
При внимательном прочтении и должном уровне опыта в разработке ваша мысль даже возникнуть не может. То, о чем вы пишите, устраняется на этапе формирования базисной семантики и ее прасинга после чистки. И устраняется легко и непринужденно
Какое отношение формирование базиса имеет к конкретно нашей идее - загадка.
С другой стороны, мы не навязываем свое мнение. Те кто понял идею, понял каким образом ее применять, у того всё будет хорошо. Кому-то, видимо как и вам, удобнее по старинке. Что ж, коллега, выбор ваш!
Это в конкретном примере, допустим, мы не продаем данные модели и бренды.
По таким запросам в итоге будем показываться, но в списке запросов в РК их не будет.
Но, как мы и написали выше, это остается на усмотрение разработчика
Да, очень хорошее замечание.
Во время чистки периодически выскакивают слова, которые с ходу сложно соотнести - берем или минусуем. Именно поэтому все наши разработчики перед формированием базиса и, соответственно, чистки и всего прочего изучают нишу.
Любое сомнительное слово проверяется, например, в том же Вордстате. Как показывает практика, таких сомнительных слов встречается мало. Разумеется, есть ниши, где таких слов почти через одно, но и с этим можно работать, если изначально базис сформирован корректно и ниша изучена.
Вообще, правильная базисная семантика - это уже пол дела.
В нашей практике был случай с минусацией фразы "трейд ин".. Сколько вариаций мы не добавляли, всегда появлялись новые: трындын, тырым дым, тындын..
И это писали реальные люди...
Спасибо и вам. Мы всё-таки попробуем раскрыть все премудрости идеи.
Основная проблема - это недостаточный уровень базовых знаний. А без него действительно может быть сложно понять смысл
Дмитрий, согласен, что есть сервисы, которые позволяют делать всё намного быстрее. Этот метод именно для Кей Коллектора.
Но, 4-5 тыс запросов после парсинга превращаются в сотни тысяч запросов, чистить которые ну очень долго.
В принципе же наш способ можно адаптировать к различным инструментам, если приложить голову и опыт. И даже быстрый парсинг можно еще ускорить.
В принципе наш метод совершенно необязателен для использования. Разработан он с целью сокращения времени на чистку и парсинг базиса. А время сокращается за счет разделения на 2 этапа: Парсинг для чистки и Парсинг базиса. Каждый из этапов при правильном подходе сокращает количество обрабатываемой информации в десятки, а то и сотни раз.
Поэтому, если вы хотите крыжить сотни тысяч запросов, то можно собрать сразу всю семантику и работать с ней. Мы предпочитаем чистить не более 10 000 - 15 000 фраз.
Да, а инструмент - это Кей Коллектор. Более детальная информация, как и писал ранее, будет чуть позже размещена.
1. Да, парсить потом нужно будет в полном объеме весь базис, но уже с применением собранных минусов, что сократит объем парсинга в сотни раз.
2. Разумеется вордстат не покажет фразу "купить окна сердито", так же как и "купить окна дешево сердито", потому что показов 0. Если по фразе будут показы, то и в "пластиковые окна окна" покажет. Есть исключения для очень жирных запросов, где просто невероятное количество вариаций, но таких немного и даже их этот метод позволит выявить, если немного скорректировать алгоритм.
1. Да, парсить потом нужно будет в полном объеме весь базис, но уже с применением собранных минусов, что сократит объем парсинга в сотни раз.
2. Разумеется вордстат не покажет фразу "купить окна сердито", так же как и "купить окна дешево сердито", потому что показов 0. Если по фразе будут показы, то и в "пластиковые окна окна" покажет. Есть исключения для очень жирных запросов, где просто невероятное количество вариаций, но таких немного и даже их этот метод позволит выявить, если немного скорректировать алгоритм.
К сожалению, или, к с частью, но действительно многие не до конца знают как работает вордстат в таком случае.
Если пойти от азов, то по запросу "пластиковые окна" мы получим список фраз, в которых есть слова пластиковые и окна в разных словоформах. Это известно всем.
Если мы закавычим запрос "пластиковые окна", то мы увидим только одну фразу, думаю, понятно какую.
Если же мы напишем в кавычках "пластиковые окна окна" или "пластиковые пластиковые окна", то получим список фраз, в которые есть слово пластиковые, слово окна и любое другое слово в различных словоформах и в различном порядке. При этом каждая из полученных фраз будет содержать в себе другие фразы из 4, 5 и т.д. слов.
По итогу мы получим список всех слов, которые пользователи забивают вместе с фразой "пластиковые окна". Фактически, новых слов в 4, 5 и т.д. словных фразах будет около 10%.
А вот как получить остальные 10% - это уже будет в следующей статье, скоро ее разместим.
Владислав, спасибо вам.
Скоро выложим алгоритм
Спасибо за указание на ошибку.. разумеется 2000 фраз.
Как правило, не более 40 страниц по 50 запросов, но иногда бывает и больше, 42-42 страницы.
Павел, суть нашего метода как раз в том, что список минусов получается более полным, чем при классическом подходе.
Прокси и аккаунты если и ускорят процесс, то незначительно.
Плюс важный момент. Если очень глубоко парсить весь базис, может получится грязная семантика из многих сотен тысяч запросов, чистить их крайне муторно. В нашем случае даже в "жирных" нишах достаточно обработать несколько тысяч (может 10-15 максимум). Иначе говоря, объем парсинга и чистки уменьшается в десятки раз, а качество от этого не просто не страдает, а во многих случаях только улучшается.
Это не просто утверждение, мы проверяли.
Спасибо за комментарий.
Завтра планируем разместить пошаговую инструкцию, не пропустите.
Если парсить сразу, это часы и даже десятки часов. А несколько самых частотных базисных, несколько минут.
После чистки формируется список минусов, который при основном парсинге базиса будет учитываться. Соответственно, глубина парсинга сокращается в десятки, а то и сотни раз. Время парсинга также сократится, и сократиться значительно.
Суть метода - это ускорение процесса чистки и формирования семантики.
Вот это очень конструктивный комментарий.
В том и фишка, что не потребуется парсить "ремонт стиральных машин машин машин машин машин", а достаточно "ремонт стиральных машин машин". Суть в том, что в данном случае спарсятся все фразы из 4 слов, три из которых ремонт, стиральная, машина в разном порядке и словоформах.
На выходе мы получим список фраз (в большинстве случаев меньше 1000 штук) с частотностями. А самое интересное, что все спаршенные фразы - это базисные словосочетания для 5, 6, 7 и т.д. словных фраз.
Тем самым мы получаем весь (иногда почти весь) список слов, которые пользователи вводят вместе с фразой ремонт стиральных машин.
Частотности нам в этом парсинге не нужны (ну разве что для ориентира по объему заминусованных фраз).
Попробуйте сами, и вы увидите, как прекрасен мир. Для удобства, вот ссылка на Вордстат https://wordstat.yandex.ru/#!/?words=%22%D1%80%D0%B5%D0%BC%D0%BE%D0%BD%D1%82%20%D1%81%D1%82%D0%B8%D1%80%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D1%85%20%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%20%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%22
Максим, мы не совсем понимаем чем мы заслужили негатив с вашей стороны?
Данный метод служит для поиска минусов, а не для формирования конечной семантики. В пошаговом алгоритме, статью о котором мы в ближайшее время разместим, чётко указано как затем парсить именно семантику, по которой будет показываться реклама.
Акцентирую внимание на том, что метод с использованием кАвычек - это подготовка к основному парсингу.
Забегая вперед, благодаря нашему подходу основная семантика также парсится во много раз быстрее и уже фактически в чистом виде.
Судя по вашим комментариям, вы просто не поняли суть нашей идеи и построили выводы неверно.
В целом вы правильно говорите, только если у вас есть эти списки, т.е. вы уже работали в этой или схожей нише. Так же учитывайте, что от региона могут серьезно зависеть и наборы минусов.
Описанный вами подход действительно вполне рабочий, больше скажу, для быстрого старта он близок к идеальному, но вот сопровождать такие проекты, как правило, тот еще геммор + бюджеты могут улетать знатно. Разумеется, от нише к нише всё меняется, но в среднем так и будет.
Небольшой комментарий по чистке за 15 минут 6к ключей. Если каждый ключ содержит хотя бы одно уникальное слово - то за 15 минут в экселе вы этого не сделаете, даже используя все возможности программы. А в намшем случае ситуация примерно такая и есть.