SEO для ИИ-ассистентов: меняем подходы к семантике

В работе с семантикой долгое время доминировал подход, основанный на классификации поисковых запросов по ключевым словам. Для многих стандартом остаётся классификация Андрея Бродера (2002). Она делит все запросы всего на три типа: информационные, транзакционные и навигационные. И на этом, как правило, анализ заканчивается.

Однако только за последнюю пару лет ландшафт поиска изменился до неузнаваемости.

SEO для ИИ-ассистентов: меняем подходы к семантике
  • Поисковые системы проделали путь от простого учёта метатега keywords до генерации комплексных ответов с помощью искусственного интеллекта. А мы по-прежнему пытаемся измерить «коммерческость» запроса по наличию в нём слов «купить» или «цена» и числу интернет-магазинов в выдаче.

  • Оставаясь в рамках устаревшей модели, мы игнорируем сложность пользовательского поведения. Эта модель представляет пользователя как примитивный автомат с запросами вроде «купить дёшево в москве», хотя системы статистики показывают совсем иную картину.

  • Фундаментальное заблуждение старого подхода заключается в том, что мы рассматриваем запросы лишь с двух сторон: «пользователь» и «наш сайт». При этом мы игнорируем посредника — поисковую систему, которая уже давно не является пассивным справочником. И это ключевое упущение.

Больше не существует единой для всех поисковой выдачи — она глубоко персонализирована. Современные семантические алгоритмы ищут не наличие ключевых слов запроса в тексте сайта, а ответы на вопрос, который лежит в основе запроса. Примитивные манипуляции, которые больше 25 лет называли «SEO», утратили свою эффективность. Изменился сам способ, которым люди ищут и находят информацию.

Продолжая мыслить в рамках триады «информационный-транзакционный-навигационный», мы не просто используем устаревший инструмент. Мы лишаем себя возможности адекватно реагировать на новую реальность. Чтобы выстроить рабочую стратегию сегодня, необходимо начать с фундамента — с пересмотра самой системы координат. Именно поэтому критически важно разобраться в современных классификациях поисковых запросов, которые учитывают все эти новые переменные.

Поиск с точки зрения пользователя

Базовая ситуация: вы решили покрутить ПФ, отобрали исполнителей, посравнивали цены, посмотрели на скриншоты с резким ростом позиций, заказали услугу. И начались чудеса: через пару дней интересные запросы в мониторинге резко подскочили – а потом ухнули вниз. Или не ухнули, а продолжили рост – в отличие от продаж. Те почему-то упали. Ну или в принципе трафик начал расти, а ни позиций, ни продаж. Почему?

Базовый алгоритм накруток ПФ в 99% случаев подразумевает следующую последовательность и её вариации:

  • Накрутчик по данным Яндекс-Метрики изучает долгосрочные интересы пользователей, и на основе этих интересов подбирает какие-то поисковые запросы, которые могут этим интересам соответствовать. Какое-то время гоняет по сайтам ботов, чтобы профиль был похож на целевую аудиторию.

  • Отбирает самые интересные по частотности и «коммерческости» запросы, которые и будут накручиваться ботами.

  • Отправляет созданную армию «буратин» в поиск по этим запросам, чтобы они нашли продвигаемый сайт и улучшили ему показатели кликабельности, посткликовых метрик, и может быть, даже имитировали какие-то конверсии.

Прекрасный запрос. Идеальный.
Прекрасный запрос. Идеальный.

Так почему ж это не работает? Ведь они ведут себя как люди.

А вот и нет: современный пользователь общается с поисковой системой тоже по-новому.

  • Он вводит запрос, находит в выдаче заранее определенный маркетплейс и уходит туда, продолжая поиск уже там

  • Он вводит запрос, видит короткий ответ в нейро-блоке и прекращает поиск

  • Он видит выдачу, понимает, что ему это не подходит, меняет формулировку. Порядка ради может сначала куда-то кликнуть, только чтобы сразу закрыть

  • Он не придерживается никаких ритуальных «москва купить цена». Он вообще может использовать голосовой поиск

  • Он может в принципе не понимать, что конкретно хочет и что ищет. «Есть такая штучка для этой вот хреновины как её там. Что она делает-то?»

Поисковая система в этом ворохе белого шума давно определила какие-то устойчивые паттерны. Она понимает, что чаще всего по этому запросу ищут самое дешёвое и прямо сейчас, это – для тех, кто и не собирается покупать, а хочет сделать что-то своими руками. А SEO-специалист не имеет на руках даже документированной цепочки запросов поэтапно, или пытается «настукивать» ботами запросы, по которым в SERP жизни нет, хотя есть частотность и много ботного трафика от других таких же специалистов.

Проблема заключается в том, что, говоря о поведении пользователя, это самое поведение игнорируется, и не только в каких-то нюансах, но вообще.

  • Коммерческие запросы нельзя путать с транзакционными. Тот, кто идёт в выдачу с коммерческим запросом, ещё не готов купить, он только планирует. Что нам показывает выдача? – Товарные фиды, маркетплейсы и каталоги. То есть контент под транзакционные намерения. Но то, что позволено маркетплейсу, не работает для среднего интернет-магазина.

  • Помимо связанных запросов есть ещё последовательные: те, которыми пользователь уточняет предыдущий запрос. Если вы сделали акцент на первичном общем запросе, но не имеете контента для уточняющего – ваши «жирные» высокочастотники в топе ничего не дадут, вероятно – даже трафика. Какие уж там продажи.

Запросы с точки зрения поисковой системы

Если вас всерьёз огорчает засилье в выдаче маркетплейсов и «Дзен» – утешьтесь. Вы не одиноки. Поисковые системы теряют трафик и показатели монетизации не меньше вашего, и по тем же причинам. Пользователю не так уж нужен поисковик, чтобы купить на «Озоне». Поэтому их задача – насколько возможно замкнуть выдачу на себе и показать побольше рекламы сразу. Задача-максимум – полная замена привычного поиска на ИИ-агента, который будет гуглить за вас.

Как следствие – поисковая система сильно усложняет свои алгоритмы, а вместе с ними – и обработку запросов. Давайте рассмотрим небольшую классификацию поисковых запросов с точки зрения их внутренней обработки поисковой машиной.

Шардирование индекса и разветвление запросов

Современные Google и Яндекс нельзя назвать поисковыми системами в полном смысле. Это распределенные информационно-рекламные системы с функциями поиска информации. Соответственно, они и поисковые запросы обрабатывают совсем не так, как традиционные поисковики.

Технически информация в базах данных (или в индексах) распределенной системы хранится на разных серверах (шардах). В поиске используется вертикальное шардирование, подразумевающее разделение данных по атрибутам с назначенными приоритетами. Сильно упрощая: самое важное и востребованное хранится в оперативной памяти, данные с меньшим приоритетом – на SSD, в качестве «антресолей» для поискового мусора – HDD. Об этом я уже писал в статье об индексировании.

Помимо чисто технических моментов есть ещё и аспекты, связанные с обработкой информации. Описать этот процесс может термин «деконструкция»: как и в случае с шардированием, поисковая система «разбирает» запрос на множество подзапросов, по которым проводит параллельный поиск, а полученные результаты синтезирует в комплексный ответ, охватывающий множество аспектов, имеющих возможное отношение к запросу. Эта технология известна как веерные (распределенные) запросы (query fan-out). Именно она лежит в основе ИИ-обзоров, формирования колдунщиков на выдаче и ИИ-поиска в целом.

Пример разветвления запроса "какие профессии будут заменены ИИ"
Пример разветвления запроса "какие профессии будут заменены ИИ"

Для генерации этих вспомогательных запросов поисковая система использует следующую классификацию, помогающую ей упростить задачи.

  • Неявные запросы. Пользователь не сформулировал запрос достаточно точно, и поисковая система пытается на основе контекста найти варианты. В некоторых случаях всё достаточно просто: если пользователь спрашивает «сбербанк рядом» – надо учесть геолокацию.

  • Связанные запросы. «Мобильный телефон» и «смартфон» – не одно и то же, но в смысловом поле находятся вплотную. Поисковая система может подмешать результаты либо напрямую, либо в блоках «Люди также ищут».

  • Ваши недавние запросы могут быть интерпретированы для уточнения контекста. Если вы начали с запроса «ремонт ноутбука», а продолжили «сервисным центром», поисковик может связать эти запросы и по последнему запросу покажет преимущественно «сервисные центры по ремонту ноутбуков».

  • По привычке пишете «цены в Москве»? Напрасно. Это сравнительный запрос, и он подразумевает сопоставление двух и более объектов, в данном случае – цены в Москве. Агрегаторы такое могут, ваша товарная категория – нет.

  • Результаты по персонализированным запросам подстраиваются под каждого конкретного пользователя. Для этого система анализирует его уникальные данные: где он находится, что искал ранее, чем интересуется на постоянной основе и как взаимодействует с контентом. В основе этого механизма лежит сопоставление цифрового профиля пользователя, представленного в виде векторного вложения (эмбеддинга), с самим контентом.

  • Если вы используете поиск на мобильном устройстве, вероятность столкнуться вот с такой вот деконструкцией кратно возрастает: Mobile-first – это не только и не столько про адаптивную вёрстку, это – про контекстуальные запросы, чьи типы перечислены выше. На запрос «кафе рядом» утром система покажет самые дешевые бизнес-ланчи, вечером может выбрать заведения с хорошим ассортиментом пива, дартс и живой музыкой.

А вам ещё объяснять клиенту, почему у него позиции скачут как блохи каждые пять минут в течение дня.

Что с этим делать? – А это ответ на вопрос, почему по XML и самым жирным запросам из «Вордстат» сайт вроде как в топах, а ни трафика, ни конверсий нет.

Mobile-first и ИИ-агенты: новая реальность в SEO

Поиск меняется, в нём всё меньше абстракций. Нет абстрактного пользователя, нет сферического в вакууме продавца. Прежде чем принять от вас отзыв на магазин, поисковая система протащит вас через систему фильтров: человек ли вы? Реально ли вы взаимодействовали с продавцом? Прежде, чем дать вам позиции в поиске по транзакционным запросам, поисковая система убедится, что вы – не фейк, а реальный бизнес. Не убедится – позиций не даст.

Меняется и сам принцип поиска. Система, использующая ИИ, не будет смотреть на наличие ключевых слов из запроса, она оценивает смысл запроса и находит на него ответ, данный в возможно чётком, конкретном и развернутом виде.

Когда нам рассказывали про Mobile-First, мы вынесли оттуда только три основных момента:

  • Сайт должен иметь адаптивный дизайн для смартфонов

  • Используемые шаблоны вёрстки должны быть предельно лёгкими, чтобы с ними справлялась даже самая дохлая связь

  • Позиции надо мониторить именно для выдачи на смартфонах

Но напрочь упустили вопрос о контексте. Мобильный пользователь ищет не так, как на десктопе, а поисковая система обрабатывает запросы совсем иначе. Хотя бы просто потому, что даже пользовательский профиль для поисковой системы привязан именно к определенному устройству. А вместе с тем – к конкретной локации, времени суток, предыдущему поиску, пользовательским интересам и т.п.

И вот уже совсем немного – и вдобавок к вездесущим ботам для накрутки ПФ добавятся ИИ-агенты и IoT. ИИ-ассистент на смартфоне будет гуглить за ваших клиентов, где бы им перекусить в незнакомом районе, а холодильник будет заказывать за них продукты. Они будут обрабатывать информацию и совершать транзакции. А у продавцов из всей информации – «У нас есть вот такой товар, по такой цене, мы находимся в Москве». И ключ «купить» 50 раз на страницу – как и у всех.

Как адаптировать контент для LLM с помощью веерных запросов

Рассуждая по полезности контента, думайте прежде всего об информационной ценности, а именно «Насколько мой контент охватывает те вопросы, которые непременно задаст потенциальный посетитель – будь то человек или ИИ-агент». И если вас хватило только на то, чтобы выложить список товаров с ценами, а к ним – тайтл, сформулированный по данным из «Вордстат», то польза тут разве что для тех, кому деньги жгут карман. Важнейшие факторы при ранжировании в режиме ИИ – понимание конкретных вопросов аудитории и предоставление на них точных ответов, которые будут более полезными, чем на других сайтах.

Если раньше целью была высокая позиция по конкретному ключевому слову, теперь главная задача — стать источником информации, который LLM процитирует в своем ответе, а ИИ-агент использует для поиска конкретных данных. Этого можно достичь, даже не имея высоких позиций в классическом понимании.

Что же делать на практике?

  • Смещайте фокус с отдельных ключевых слов на весь путь пользователя. ИИ-алгоритмы, особенно в поисковых системах, не просто отвечают на первоначальный запрос. Они пытаются предугадать и охватить целый спектр связанных, более узких вопросов, которые могут возникнуть у пользователя дальше.

  • Ваша стратегия должна заключаться в том, чтобы сделать ваш контент максимально полезным для ответа именно на эти второстепенные, уточняющие запросы. Создавайте в своих статьях и на страницах сайта предельно четкие, релевантные и самодостаточные фрагменты текста, каждый из которых является исчерпывающим ответом на один такой узкий вопрос из «веера». А релевантность – это не то, что вам кажется, а вполне измеримая характеристика.

  • Помните, что поисковые интерфейсы на базе ИИ персонализированы. Результаты для разных людей могут отличаться. Чем точнее ваши материалы будут соответствовать этим разветвленным запросам и конкретному контексту, тем выше вероятность, что LLM выберет именно ваш фрагмент для включения в сгенерированный ответ и поставит на него ссылку, по которой может прийти ваша целевая аудитория, а не поведенческие боты или случайные люди.

Оптимизация для LLM — это больше не гонка за отдельными ключевыми словами. Это работа по созданию контента, который предвосхищает и полностью удовлетворяет информационные потребности пользователя на всех этапах его взаимодействия с поиском.

Инструментарий

Если вам интересно поэкспериментировать с разветвлением запросов, попробуйте следующие инструменты:

и т.п.

Практически все доступные сейчас сервисы анализа разветвленных запросов используют библиотеки Python и API Gemini, и если у вас есть соответствующие навыки – вы можете разработать собственный инструментарий.

Пример выгрузки по этому тексту. Алгоритм оценил контент по инструментарию как недостаточно проработанный. Последующий анализ запроса показал, что речь идёт о разветвлении запросов в контексте баз данных. Игнорируем.
Пример выгрузки по этому тексту. Алгоритм оценил контент по инструментарию как недостаточно проработанный. Последующий анализ запроса показал, что речь идёт о разветвлении запросов в контексте баз данных. Игнорируем.

Принцип работы тоже примерно один и тот же: вы задаёте ключевое слово или поисковый запрос и адрес анализируемой страницы, LLM анализирует контент и выдаёт результат. В ряде случаев может сопоставить с какими-то эталонными ресурсами, некоторые не требуют даже заданных ключевых слов: они сами определяют, каким запросам страница соответствует – и насколько.

Другой вариант – Custom JS для SFSS. Принцип действия там немного другой: при парсинге контента сайта извлекаются какие-то определенные текстовые зоны (например, заголовки H1) и отправляются на анализ средствами Gemini. Gemini возвращает сгенерированный "веер". Пример такого скрипта с сайта Go Fish.

Разумеется, что во всех случаях речь идёт только об эмуляции и работе на уровне NLP, без обращения к индексам Google и учёта множества других метрик и сигналов. Однако используется та же модель, что генерирует ответы в ИИ-обзорах Google, а это уже не уровень инсайтов и фантазий.

И не тратьте время на раскачку. Новая эра SEO уже у порога.

14
9 комментариев