(function(m,e,t,r,i,k,a){m[i]=m[i]||function(){(m[i].a=m[i].a||[]).push(arguments)}; m[i].l=1*new Date(); for (var j = 0; j < document.scripts.length; j++) {if (document.scripts[j].src === r) { return; }} k=e.createElement(t),a=e.getElementsByTagName(t)[0],k.async=1,k.src=r,a.parentNode.insertBefore(k,a)}) (window, document, "script", "https://mc.yandex.ru/metrika/tag.js", "ym"); ym(34004010, "init", { defer: true, clickmap:true, trackLinks:true, accurateTrackBounce:true }); ym(34004010, 'hit', window.location.href);
(function (d, ver) { var s = d.createElement('script'); s.src = window.__specials_cdn + 'SpecialBranding/top.min.js?' + ver; s.async = true; var container = d.getElementById('special-branding-top'); if (container) { s.onload = function () { new window['BrandingTop']({ container, content: { theme: 'light', link: 'https://go.vc.ru/cGpW', text: 'MOAB – бесплатный аудит и прогноз трафика для SEO', button: 'Заказать', color: '#fcf1f0', img: '', }, }); }; } d.body.appendChild(s); })(document, '__specials_version' in window ? window.__specials_version : 0);

Продавать мозги, а не руки: как в MOAB автоматизируют рутину в SEO

Семантическое ядро таких гигантов, как Ozon или Hoff, содержит сотни тысяч или миллионы запросов. Как собрать и почистить такую семантику всего за 10-15 часов? Ответ на этот вопрос — в большом техническом гайде с внутренней SEO-кухни MOAB. Все описанное читатель сможет повторить самостоятельно с минимальными усилиями.

Последние годы SEO переживает новый ренессанс: по сути, сейчас это единственный способ дотянуться до аудитории Google. Мы в MOAB тоже столкнулись со значительным ростом интереса к услуге, в первую очередь, со стороны крупного и среднего e-com — сейчас мы работаем с OZON, Эвотор, Hoff, VK Group, Divers.ru, Музторгом и многими другими.

Чем больше проектов — тем быстрее агентство утыкается в лимит по производительности. Работа есть — а сделать ее некем (про ситуацию на рынке труда в IT пояснять, наверное, не стоит).

Впрочем, плюс такой ситуации в том, что это — лучший стимул для автоматизации процессов. Фишка автоматизации также и в том, что она продает сама себя:

  • На пресейле продавцы всегда могут сказать: ну, вот мы тут ядро собрали между делом, посмотрите на файл, в нем 100500 запросов, заняло всего часов 5. Вау-эффект гарантирован: проверено.
  • На продакшене мы продаем мозги, а не руки: там, где конкуренты дают оценку в 50-100 часов для SEO-специалистов, мы просим 10-15 часов — но для разраба. Часы разраба дороже, но сумма — меньше, и это работает.

В этой статье мы расскажем, как мы автоматизировали работу с семантикой для крупных проектов.

На данный момент для сбора и очистки ядра размером в 50 или 100 тысяч фраз мы тратим от силы 10-15 часов рабочего времени.

Долго, дорого и скучно: как обычно работают с семантикой

Как выглядит типовой процесс работы с семантикой в агентстве?

В агентство приходит проект, и до начала работы нужно собрать семантику и построить прогноз трафика. Иногда у заказчика есть уже настроенный мониторинг позиций — и тогда нужно оценить, можно ли расширить эту выборку и много ли дополнительной частотности даст это расширение.

Все эти процессы — крайне трудозатратные: нужно собрать маркерные запросы, распарсить семантические хвосты, затем очистить их от мусора, и только потом можно что-то оценивать.

Если речь о пресейле — таким анализом не будет заниматься почти никто, прогноз просто «нарисуют» по оценке конкурентов в Spywords.

Если речь о работе после подписания договора, то здесь другая проблема — обычно бюджета не хватает на то, чтобы проработать все ядро, поэтому от него отрезают те или иные куски, тем самым снижая охват.

Нам в MOAB хотелось давать клиентам адекватные прогнозы и быстро собирать максимально полные сем. ядра — так, чтобы бюджет задачи был незначительным даже для малого и среднего бизнеса.

После нескольких экспериментов мы разработали методологию т.н. «масок URL», которую применяем для быстрого формирования больших пулов запросов в e-com.

Ниже мы расскажем о теории процесса на упрощенном примере, а затем покажем практический кейс.

Маски URL для быстрого сбора и очистки семантики: как это работает

Итак, представим, что ваш клиент — крупный ритейлер электроники, и перед вами стоит задача продвижения раздела «Смартфоны».

В процессе сбора семантики вам предстоит:

  • Собрать все маркерные запросы со словом «смартфон» и «телефон», брендовые маркеры (Xiaomi, Сяоми, ксиаоми, etc).
  • Убрать из массива запросы, не имеющие отношения к смартфонам (пример).
  • Убрать из массива некоммерческие запросы (пример).

Оставшиеся в массиве запросы будут отвечать нескольким условиям:

  • это запрос про смартфоны;
  • это коммерческий запрос;
  • запрос проходит нужный нам ценз по частотности.

Самое простое — частотность, тут все понятно. Но как автоматизированно выяснить, что запрос а) точно про смартфоны и б) коммерческий?

Анализируем структуру URL конкурентов

Для этого обратимся к структуре URL некоторых конкурентов, который ранжируются в этой тематике.

Запрос: [купить смартфон], Яндекс

Тип запроса: категорийный, безбрендовый

Ссылки из выдачи:

Тип запроса: категорийный, безбрендовый

Ссылки из выдачи:

Запрос: [купить смартфон xiaomi], Яндекс

Тип запроса: категорийный, брендовый

Ссылки из выдачи:

Запрос: [samsung galaxy s23 ultra купить], Яндекс

Тип запроса: товарный, брендовый

Что мы можем узнать из анализа данных серпов и URL в них:

  • Если запрос коммерческий — в выдаче будет ссылка на Маркет (Спасибо, Кэп!).
  • Структура URL значительного количества сайтов содержит повторяющиеся паттерны, которые мы называем масками. Мы можем отследить частоту встречаемости этих паттернов по тому или иному запросу, и затем сделать вывод о том, полезный этот запрос для нас или нет.

Во всех примерах ниже звездочка «*» означает любые символы.

  • OZON

Все категорийные URL OZON будут содержать ozon.ru*smartfon*. Товарные URL, однако, уже подходят под эту маску лишь в части случаев (товар подходит под маску, товар не подходит под маску, бренд, категория). Строго говоря, страница https://www.ozon.ru/category/samsung-galaxy-s23-ultra/ — это не совсем товарный URL, это листинг, но поскольку она ранжируется по товарному запросу, для упрощения будем именовать ее «товарной».

  • МВидео

Все URL МВидео, как категорийные, так и товарные, будут содержать маску *mvideo.ru/smartfon* (товар, бренд, категория).

  • DNS

К сожалению, структура URL не содержит повторяющихся паттернов.

  • Авито

Очень удобная для нас структура URL, которая, как вы увидите в дальнейшем, выручит нас там, где нас подвела структура URL Ozon. Содержит повторяющийся паттерн: *avito.ru*telefon* (категория, товар, бренд).

  • СберМегаМаркет

*sbermegamarket.ru*smartfon* маска повторяется в товаре, бренде, категории.

  • Ситилинк

*citilink.ru*smartfon* — подходит для товара, категории и бренда.

  • Эльдорадо

*eldorado.ru*smartfon* — подходит для товара, категории и бренда.

  • МТС

*shop.mts.ru*smartfony*, маска подходит под товар, категорию и бренд.

  • Samsung

*samsung.com*smartphon* (товар, категория).

  • Xiaomi

*mi-shop.com*smartphon* (товар, категория).

  • Маркет: здесь довольно интересный случай.

Наличие Маркета в выдаче Яндекса — один из самых точных признаков того, что запрос — коммерческий. В то же время ситуация осложняется тем, что однозначный паттерн не выявляется, скорее, их три:

  • *market.yandex.ru* — признак того, что запрос коммерческий;
  • *market.yandex.ru*telefon* — признак того, что это коммерческий категорийный запрос про смартфоны;
  • *market.yandex.ru*smartfon* — признак того, что это коммерческий товарный запрос про смартфоны.

На практике в последнее время Яндекс нередко показывает по категорийным запросам URLы Маркета вида search, что как раз и вынуждает нас учитывать самую общую маску типа *market.yandex.ru*.

В общем, суть ясна: в большинстве случаев сайты используют повторяющиеся паттерны URL, и мы можем этим воспользоваться. Можно было бы собрать маски по брендовым магазинам Huawei, Oppo, Vivo, Apple и других, но для упрощенного примера достаточно и того, что есть.

Что дальше делать с масками

Мы составляем вот такую табличку:

Ссылка на Google Doc.

Здесь мы приводим для примера абстрактный файл про смартфоны, ниже разберем практический кейс с нашим клиентом — компанией Hoff.

Итак, мы собрали маски URL, которые могут появляться в выдаче по коммерческим запросам про смартфоны. Затем мы снимаем выдачу Яндекса (можно и Google, тут зависит от задачи), и смотрим, попадает ли та или иная маска в выдачу по конкретному запросу.

Если маска ozon.ru*smartfon* найдена в топ-10 — записываем значение «1», если нет — «0»:

В последнем столбце, как можно видеть в табличке, считается сумма вхождений. В грубом приближении — чем больше сумма, тем более «коммерческий» запрос и тем более вероятно, что он про смартфоны.

С практической точки зрения мы обычно применяем следующие фильтры:

Маркет = 1, это позволяет сразу надежно отсечь некоммерческие запросы:

Сумма вхождений: от «≥2» до «≥4»

Чем больше сумма вхождений — тем чище выборка.

Но чем чище выборка — тем больше вероятность отрезать «целевые» запросы.

Тут надо искать баланс вручную, исследуя то, как меняется суммарная частотность запросов, количество фраз и их чистота в зависимости от установленного фильтра. Если же страсть к исследованиям вам несвойственна — воспользуйтесь готовой рекомендацией:

  • 4 или более вхождений масок в выдаче,
  • 1 из вхождений — Яндекс.Маркет,
  • если в вашей тематике Маркет не ранжируется (авто, недвижка), то либо подбирайте такой же аналог, прибитый гвоздями в топе (Авто.ру, Циан), либо, чтобы перестраховаться, ставьте «5 или более вхождений масок в выдаче».

Практический кейс: сбор семантики для HOFF.RU

Вообще, методика масок URL лучше всего работает в конкурентных, охватных нишах, где выдача уже сформирована, есть устоявшиеся лидеры, а количество запросов измеряется десятками и сотнями тысяч.

Для HOFF.RU такая методика подходила идеально, поэтому было решено использовать ее на полную мощность. Расскажем о процессе по шагам.

Сбор маркеров и хвостов

Маркеры брали максимально широкие:

  • стол
  • стул
  • кресло
  • диван
  • кровать
  • тарелка
  • сервиз и так далее.

Затем собирали «все, что включено» из Wordstat в 2 уровня по указанным маркерам.

Всего получилось 168 маркеров и 762 000 «грязных» запросов.

Сбор масок URL

Всего в базе масок 26 разделов, для каждого — 10-12 масок, «Диваны» — один из них.

Для некоторых сайтов используется несколько масок, например, в «Кухнях»:

  • *sbermegamarket.ru*kuhonnye-garnitury*
  • *sbermegamarket.ru*modulnye-kuhni*

Логика в этом случае такая: при нахождении любой из масок в выдаче по запросу, записываем в ячейку «1», даже если (что крайне маловероятно), будут найдены 2 маски по одному сайту — все равно записываем «1».

Результат после сбора выдачи — Диваны

Самое интересное — пример финального файла.

Итак, всего в файле «Диваны» было 85 642 «грязных» запроса, собранных по маркеру «диван»:

После применения фильтров:

  • Маркет=1
  • Сумма>4

осталось 8750:

Можно видеть, что мусорных фраз в файле практически нет.

Суммарная частотка:

  • до: 813 320
  • после: 105 101

Общий результат: 55 209 коммерческих фраз по 26 разделам, трудозатраты — около 12 часов.

Использование масок для работы с товарными запросами

Впрочем, методика масок URL не ограничивается задачами сбора и фильтрации категорийных запросов. Одно из возможных применений — массовая генерация товарных запросов из XML-фида, методика разработана совместно с Виктором Репиным из OZON.

Процесс строится так:

  • Берем XML-фид с товарами.
  • Берем все слова из названия товара, строим все возможные комбинации фраз, содержащие 2 слова и более (в некоторых случаях можно ставить 3+). Как правило, получаем 5-15 вариантов фраз на товар, при желании можно добавить библиотеку транслитераций (samsung → самсунг).
  • Все полученные комбинации прогоняются через проверку масками (документ с масками по тематикам, пользуйтесь бесплатно, актуальность — около 8 месяцев назад).
  • Запросы, по которым более 3 вхождений разных товарных масок — очевидно, товарные.
  • На следующем этапе пробивается частотность в виде «!», убираются нулевки.
  • Итог — полностью автоматизированное получение очень обширного НЧ-ядра практически по любым товарам.

Стоит отметить:

  • Мы осознанно пробиваем сначала выдачу, а потом частотку: на больших объемах, с которыми мы работали в OZON (десятки миллионов фраз), это дешевле. Себестоимость съема выдачи ниже, поэтому проще сначала уменьшить размер списка, а потом снимать уже более «дорогой» Wordstat.
  • Нужно учитывать специфику ранжирования тех или иных масок при создании фильтров. Очевидно, что маска *avito.ru*telefon* будет реже встречаться по категорийным запросам, но чаще — по товарным.
  • При желании можно создавать «минус-маски», например, если вам надо исключить товарные запросы из массива, во многих тематиках страницам товаров свойственно использование *product*, *goods*, *item*.

Пример готового файла, сделанного по такой методологии для компании MUZTORG:

Математика там такая: из ~300 приоритетных товаров мы получили около 8000 комбинаций, после фильтрации осталось 323 «товарных» запроса.

Как генерировать семантику своими руками

Обычно авторы таких статей в разделе «Практическое применение» предлагают читателям учить Python или же использовать AParser/Zennoposter. Не умаляя всех достоинств этих способов автоматизации, отметим, что они сильно сужают круг тех, кто применит рекомендации в реальности.

Мы все же предпочитаем автоматизацию, максимально близкую к формату «одной кнопки»: зашел, нажал, получил результат. Поэтому мы сделали микросервис «Генерация запросов» в MOAB Tools.

Как его использовать:

  1. Зарегистрируйтесь по ссылке, если у вас еще нет аккаунта.
  2. Получите бесплатный баланс по инструкции или пополните баланс живыми деньгами.
  3. Перейдите в сервис «Генерация запросов».
  4. У сервиса 2 основных сценария:
    - генерация товарных запросов из текстового списка названий товаров/XML-фида + дальнейшая валидация через заданные маски;
    - валидация введенных запросов через заданные маски.
  5. Документация к сервису лежит здесь.

Для тех, кто не любит читать документацию, мы подготовили небольшое видео с кратким описанием основных возможностей:

Скринкаст с описанием микросервиса «Генерация запросов»

Нейро-SEO: реальность опережает прогнозы

Если начал говорить про автоматизацию в SEO — рано или поздно скатишься в обсуждение нейросетей. Порой кажется, что спекуляции на тему ChatGPT — один из самых эффективных способов собрать лайки на vc.ru для авторов, которых в других случаях просто не замечают.

Как широкое использование ИИ повлияет на SEO-индустрию: наша точка зрения.

  • Гайки закрутят.

Государства рано или поздно сделают маркировку генеративного контента обязательной, а отказ от маркировки — нарушением (в Китае уже готовятся запрещать). Владельцев нейросетей, вероятно, заставят вести реестр сгенерированного контента. Это позволит маркировать сниппеты и/или понижать в выдаче материалы без маркировки.

  • Качество контента возрастет.

Пресловутый EAT неслучайно превратился в EEAT. Еще одна «E» — это Experience. По сути, нейросети не создают новый контент — в зависимости от качества датасета, они формируют плохую или хорошую компиляцию на его основе.

В условиях засилья генеративного контента дополнительный бонус в ранжировании получат сайты, где будет уникальный по смыслу контент, объединяющий в себе информацию, которая до момента публикации существовала лишь в головах у экспертов в конкретной нише.

  • (нормальный) Контент станет дороже.

Это создаст дополнительные проблемы для малого бизнеса и вытеснит с рынка дешевых «копирайтеров» и «рерайтеров». Конкурентные экспертные тексты они не потянут, а писать простые технические тексты клиенты «наймут» нейросеть.

На их место придут серьезные редакции, умеющие работать с экспертами, разбираться в технических вопросах и структурировать информацию.

Безусловно, в выдаче будет много генеративного контента, в том числе тогда, когда он реально нужен для выполнения чисто технической функции — описания товаров, тексты «как варить пельмени» и «график праздников 2023». Но в то же время по запросу [деревянный дом под ключ проекты и цены] преимущество получит кто-то типа GoodWood, с контентом такого типа.

И это отличная перспектива.

Прозвучит парадоксально, но чем сложнее — тем лучше, чем дороже — тем лучше, чем больше препятствий — тем лучше.

ИИ убьет рерайтеров и сделает контент дороже? Отлично, у нас есть топовая редакция для создания действительно экспертных материалов.

Маркировка рекламы у блогеров грозит уничтожить рынок нативок? Не проблема, мы разобрались и уже продаем блогерам и заказчикам консультации по маркировке.

Чаще всего фискальные, регулятивные и технические ограничения — это решаемая проблема для профессионала и неразрешимое препятствие для новичка.

Если в бизнесе вы можете решить проблему за деньги — это не проблема, это возможность. Главное, помните о том, скольких конкурентов эта проблема убрала с вашего пути.

P.S. Редакция MOAB выражает глубокую признательность CMO Hoff.ru Виталию Шахматову за возможность поделиться данными по сбору семантики для проекта.

(function (d, ver) { var s = d.createElement('script'); s.src = window.__specials_cdn + 'SpecialBranding/bottom.min.js?' + ver; s.async = true; var container = d.getElementById('special-branding-bottom'); if (container) { s.onload = function () { new window['BrandingBottom']({ container, content: { theme: 'light', link: 'https://go.vc.ru/cGpW', text: 'MOAB – бесплатный аудит и прогноз трафика для SEO', button: 'Заказать', color: '#fcf1f0', img: '3ab5dc27-8609-5538-b129-3fc6c91dc9ac', }, }); }; } d.body.appendChild(s); })(document, '__specials_version' in window ? window.__specials_version : 0);
0
28 комментариев
Написать комментарий...
Иван Зимин

Илья, спасибо за статью, пара вопросов:
1) Зачем собирать продуктовые запросы? Вы же не оптимизируете отдельные карточки под них? Да и на большом екоммерсе соотношение трафика на листинги и товары по наблюдениям 9 к 1 примерно.
2) Вы говорите, что на пресейле показываете 100500 запросов собранной семантики, но показать просто много запросов не сложно - групповой отчёт в кейс.со сделать 10 минут, всё таки показываете кластеры и среднюю позицию или видимость по этой семантике? Но видимость по семантике не даёт гарантии, что все запросы целевые. В общем, вектор вопросов такой, буду благодарен за ответ.

Ответить
Развернуть ветку
Илья Исерсон

1) Да и на большом екоммерсе соотношение трафика на листинги и товары по наблюдениям 9 к 1 примерно.

- не всегда, возьмите те же телефоны к примеру, или интернет-аптеки.
По товарным запросам, если они составляют значимую долю трафика, хорошо бы видеть реальную картину динамики позиций, чтобы принимать решения на основе данных, а без ядра это невозможно.

Кроме того, всегда можно взять 10-15% наиболее востребованных товаров, взять привязанные к ним запросы и, в зависимости от конкретной ПС, предпринять те или иные меры, дабы эти запросы встали в топ)
Да, зачастую трафика там не так много, как с листингов, но зато конверсия выше, а продвигать такие фразы - легче, чем листинги.

2) "Вы говорите, что на пресейле показываете 100500 запросов собранной семантики, но показать просто много запросов не сложно - групповой отчёт в кейс.со сделать 10 минут,"

- да, но там будет треть мусора, треть нецелевого, что толку?
Здесь фишка в том чтобы с минимальными трудозатратами собрать чистое целевое ядро, на основе которого можно

2.1 построить реалистичный прогноз трафика
2.2 показать клиенту разницу между тем, что есть сейчас (обычно там какие то 500-1000 фраз в работе у агентства) и тем, что может быть при нормальном подходе

Ответить
Развернуть ветку
Иван Зимин

Спасибо за ответ. Получается, что всё таки можете брать в работу доработку отдельных карточек?

Что касается группового отчета кейс.со, наиболее близкие конкуренты + не нулевой вес ключа и все лишнее там отпадает, по ощущениям будет не сильно хуже, чем парсинг вордстата со второй глубиной и дальнейшей проверкой, в любом случае спасибо за подход, свое применение он имеет однозначно.

Ответить
Развернуть ветку
Илья Исерсон

Иван, тут несколько моментов:

"Получается, что всё таки можете брать в работу доработку отдельных карточек?"

1) во первых, почему бы и нет, если все факторы совпадают (товар маржинальный, частотный, всегда в наличии, etc)
2) во вторых, есть и такая штука - https://www.ozon.ru/category/iphone-11-apple/, т.н. "товарные листинги", этот листинг например в топе по [iphone 11], т.е. запрос вроде как товарный, а продвигается эта штука как листинг
3) ну и наконец, в продвижении есть не только внутренние факторы;)

Ответить
Развернуть ветку
Павел Горбунов

Это не просто так показали на примере бытовой техники. Есть тематики с наличием ярко выраженного товарного спроса. В электронике он больше 10% явно, а в той же одежде - близко к 0% может быть (никто конкретную модель шортов не ищет, максимум бренд).
Поэтому для карточек как раз нормально собирать СЯ.
Но тогда вопрос - как отделить на выходе запросы со смешанным интентом, более подходящие для статей, когда ядро уже готово.
Или уже вручную проходить и подбирать какие-то запросы и для коммерческих страниц , и для статей?

Ответить
Развернуть ветку
Дредастый Колхозан

Крутая статья. Подробно и по полочкам. Спасибо, узнал доя себя много нового. Читать приятно и комфортно!

Ответить
Развернуть ветку
MOAB
Автор

спасибо, рады что вам понравился наш материал)

Ответить
Развернуть ветку
Антон Меренков

Спасибо за крутой кейс! Вопрос по кластеризации: явно вы так запросы не оставляете, а разбиваете их на группы.
1) С помощью какого сервиса?
2) Сколько времени на это уходит?
Просто в статье указано, что столько-то часов на семантику, но не отмечена кластеризация - значит еще нужны часы.

Ответить
Развернуть ветку
Илья Исерсон

Антон, используем https://moab.pro/cluster/, добро пожаловать)
трудозатраты очень сильно зависят от конкретной выборки, проекта и так далее.
если память мне не изменяет, на 1000 рабочих часов получается от 70 000 и более чистых ключей, включая создание тегов, ЧПУ, подбор товаров в рамках инструментария на сайте клиента

т.е. по факту, это уже готовые к выгрузке теги, без текста.

один кластер это как правило 6-10 ключевых слов

Ответить
Развернуть ветку
Антон Меренков

Илья, спасибо!

Ответить
Развернуть ветку
Константин Добров

Думаю ещё можно парсинг Яндекс Директа прикрутить а анализу семантики. Если есть платные объявления у конкурентов или товарная галерея - то запрос коммерческий.

Ответить
Развернуть ветку
MOAB
Автор

с товарной галереей согласны, мы делали такой парсер по заказу одного из клиентов.
по факту наличия самих объявлений - спорно, слишком многие до сих пор пренебрегают минус словами;)

Ответить
Развернуть ветку
Nikolai Kovalev

Вообще молодцы. Спасибо что поделились, буду использовать такой подход.

Ответить
Развернуть ветку
Trautmori

Не совсем понятно, чем анализ с использованием масок url лучше, чем кластеризация по топу и проверку на коммерч по количеству озонов, маркетов и тд (что гораздо проще)

Ответить
Развернуть ветку
Andrey Vycheslavov

как я понял подход описанный в статье:
1. в моаб могут дешево и быстр выдачу получать и ключи в глубину снимать от маркеров/базовых (скорее всего потому что у них есть сервисы разные и локально хранят результаты, что снижает количество прямых запросов к вордстату и поисковикам)
2. поэтому они идут по оптимизированному для себя пути
2.1. формируют все ключи с вхождениями нужных им маркеров/бизисов
2.1. по ним получают все ссылки из топ 10
2.2. делают анализ вхождений в урлы слов по наиболее встречаемым страницам (это на порядок меньше человеку и быстрее чем в 700 000 ключах копаться)
2.3. формируют маски (скорее регексом, просто для статьи для понимания упростили до * )
2.4. прогоняют выдачу через маски и получают чистые ключи и уже потом приступают к кластеризации и т.п. как классически учат везде, но опять же как понимаю - у них уже есть не один большой массив, а отдельные массивы по маскам для кластеризации.

на маленьких объемах, кажется не оптимальная стратегия, а вот на больших - сокращает работу, банально тех же кластеризаторов - быстрее 10 раз по 10 000 ключей, чем один раз 1 000 000 кластеризовать.

я сейчас это все говорю ни как SEO специалист, а как человек имеющий отношение к проектам связанным с анализом и классификацией текстов, построение графовых баз и т.п.

Ответить
Развернуть ветку
Александр Максимовский

Когда вы говорите парсите топ, это что имеется ввиду, топ-10, топ-20 или топ-100 например?

Ответить
Развернуть ветку
Илья Исерсон

топ10, для данной задачи глубже ходить смысла нет

Ответить
Развернуть ветку
First Bug

Всё не читал, но делаю многое из описанного уже лет 7 как)) Размечать можно как угодно запросы, а коммерческость можно и без обработки топа неплохо предсказывать на самом деле.

Ответить
Развернуть ветку
MOAB
Автор

Мы же не претендуем на то, что изобрели методику первыми.
В качестве публичного сервиса - да, тут мы первые сделали. А в остальном, SEO в целом, это хорошо забытое старое от А до Я

Ответить
Развернуть ветку
Павел Горбунов

Вопрос - как в целом вы используете ИИ в SEO-задачах?
помимо дополнительного сервиса для генерации хвостов есть ли что-то еще?

Ответить
Развернуть ветку
MOAB
Автор

Павел, конкретно в Генераторе, который описан в статье ИИ не применяется.
Мы пробовали писать простые тексты, типа описаний товаров, при помощи нейронок - результаты так себе, в том смысле что на редактуру тратишь больше времени, и в итоге косты те же или больше.
Англоязычный контент в этом плане получше, для русского языка нейронки пока сыроваты.

Сейчас будем пробовать делать заголовки объявлений\описания для Директа, посмотрим что выйдет.

Ответить
Развернуть ветку
Павел Горбунов

понял, спасибо.

Ответить
Развернуть ветку
Demyan Belyakov

Вы чем ваще занимаетесь?
https://en.m.wikipedia.org/wiki/GBU-43/B_MOAB

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Carl Herr

слишком много ссылок

Ответить
Развернуть ветку
Илья Исерсон

"и проверку на коммерч по количеству озонов, маркетов и тд (что гораздо проще)"
- коммерческость это фильтрует нормально, но не фильтрует смысл.

здесь же, когда мы берем тематические маски с вхождением условно *ozon.ru/generator";, мы можем быть уверены что конкретный ключ - он точно про генераторы.

Ответить
Развернуть ветку
Trautmori

смысл фильтруем по по топу, выдернули часть моего сообщ

Ответить
Развернуть ветку
Павел Горбунов

Спасибо за статью. Вопрос - а можете ли вы как-то мусор вычищать из того ,что в итоге собрал Вордстат?
как-то пропустили то, что мусора предостаточно получается, и неочевидно, как его отсекать.
А на этом этапе можно значительно сэкономить, отсеяв часть по хорошему наработанному списку минус-слов?
У вас такой есть?

Ответить
Развернуть ветку
Илья Исерсон
Ответить
Развернуть ветку
25 комментариев
Раскрывать всегда