В топ или в ответ? SEO в эру ИИ
SEO меняется. Попробую подытожить, что изменилось в теории и практике к 2025 году. Это не руководство к действию, не набор чек-листов, просто попытка обозначить и обобщить. Как минимум – для себя.
Что из себя представляла классическая практика
Всё было достаточно простым и понятным. Несмотря на разговоры про восемьсот метрик Матрикснет, все всегда понимали, что есть пара самых сильных фактора ранжирования, с помощью которых можно было надёжно и предсказуемо получить динамику и почти что угодно воткнуть в топ выдачи. Гугл – хост и ссылки, Яндекс – ссылки и ПФ. Если на хосте или конкретном документе не было фильтров, то не было и проблем кроме конкуренции и объёмов вваливаемых в ссылки и накрутки бюджетов.
Понятно, что такой расклад вообще не подразумевал необходимости всерьёз что-то изучать. Техничка – по чек-листу, текстовые метрики – по шаблонам из топа, а всё остальное – просто общее понимание, как выстраивать ссылочные профили и гонять программных «буратин».
Как брать ссылки? – Да чтоб с донора поменьше исходящих, а тематика примерно похожая. Больше ссылок – сильнее эффект. 5-10 ссылок с биржи – и через 2 недели ровно топ-5 по запросу из анкоров.
Как настукивать ПФ? – Лей по самым жирным запросам, затаптывая конкурентов. Больше налил – лучше позиции. Я как-то с 20 визитов с мобильника (просто со сменой ip, вручную) за день поднял в топ-5 сайт продавца гранитных памятников на могилу). Это было забавно.
А всё остальное – мелочёвка и нюансы методов ссылочного и поведенческого спама. В основе эффективного продвижения было знание об актуальных уязвимостях поискового алгоритма и умение их спамить.
Что отвалилось
SEO-копирайтеры. Появление генеративных нейросетей закрыло этот вопрос, и вероятно – навсегда. (Особо отмечу: речь о тех копирайтерах, кто здорово умел вставлять запросы по списку в текст на тему, которой райтер не понимает. Авторы экспертного контента никуда не денутся).
Биржевые ссылки. Не возьму на себя храбрость утверждать, что они в принципе не работают, но минимум за 3 года я ни разу не увидел от их использования никакого эффекта для ранжирования. Более того, даже pbn, слепленные из сайтов наподобие тех, что торгуют ссылками на биржах, не показали ожидаемых результатов.
Накрутки ПФ. Здесь тема несколько сложнее. Пользовательские сигналы как абсолютное мерило качество сайта никуда не делись. Если востребованный и высокорелевантный ресурс будут грамотно подкручивать – это пойдёт на пользу. Но даже с помощью ПФ вы не обойдёте маркетплейсы с их «весом» и трафиком дольше, чем на тестовый период очередного «сеодяди». А если вы SEO-специалист – то надо делать выбор: вы либо занимаетесь оптимизацией, либо только накрутками. Я пытался отдавать накрутки на подряд: те, кто крутит всерьёз, запрашивали суровые доработки сайта и ограничения – такие, что клиент принять не мог. А рядовые «крутильщики» никакой динамики не обеспечили: дёрнулось в первые два дня – и закономерно вернулось на место.
Уникальность по хэшам. Когда-то было крайне важно, чтобы сайт не содержал технически неуникальной информации, размещённой где-то ещё. С момента внедрения генеративок речь об уникальности такого рода уже не идёт. Ей на смену пришла семантическая уникальность. Нет смысла в рерайтах, не добавляющих по смыслу ничего нового. Это просто контент «чтобы было», закрывать дырку на обоях, и всё решают там хостовые бонусы и пользовательский спрос. Вы сможете перебить хост и аудиторию какого-нибудь «Дзен»? – Нет. Ваш единственный шанс – контент настолько убедительный, что поисковые системы пренебрегут хостом и объёмом аудитории.
Иллюзии. Теперь при оценке сайта надо крайне пристально смотреть на сайт и монстров в выдаче, перед тем как честно сказать себе и потенциальному заказчику, что в данном конкретном случае у самурая цели быть не может, только путь. Делай, что должен, и будь что будет, и не жди награды. Нет, это не значит, что что-то там умерло, но там, где бодаются здоровенные быки, кролику делать нечего. Хотя, конечно, можно попытаться.
Что появилось
Стратегии. Раньше под этим словом вообще понималось всё, что угодно, от тактики до каких-то конкретных практик – потому что можно было обходиться без них. Сейчас, судя по всему, недопонимание сохраняется. Клепать статьи и покупать ссылки – это не стратегия. Стратегия – это комплексный алгоритм, позволяющий решить глобальную задачу. «Лучше маленькая пицца, чем крошки от большой» — это про стратегию. «Предоставить более ёмкий и полный контент в сравнении с конкурентами» – это про тактику. «Кроме подсчёта ключей по десятку конкурентов определить, для чего там эти ключи вообще, и есть ли ещё какие-то» – про конкретную методику.
Если у тебя нет документированной стратегии, за продвижение сейчас браться не стоит.Усиление хостовых факторов. Отсутствие весомого хоста, за которым стоит серьёзный бизнес, во многих нишах практически полностью обнуляет шансы получить хоть какую-то видимость по самым жирным запросам. Единственная альтернатива – найти УТП под свою аудиторию, плюс действительно прокачать сайт не просто копируя конкурентов, а сделав его реально лучше других ресурсов. И речь, разумеется, не о скорости загрузки пустопорожних текстов и бессмысленных картинок, и не о красотах дизайна.
Чтобы конкурировать с маркетплейсом, надо быть другим маркетплейсом. Ну или хотя бы предлагать то, чего на маркетплейсе нет.Поисковый маркетинг. Ранее под этим понималась преимущественно поисковая реклама. Сейчас – сам принцип. Вы продвигаете не сайт, вы продвигаете бизнес, онлайн-презентацию компании. Если с ней есть проблемы – о долгосрочном эффекте SEO говорить не приходится.
Конкурируют не сайты. Конкурируют бизнесы.
Сегментация аудитории и персонализация выдачи. Было время, когда мы кластеризовали запросы по сайтам в выдаче. Этот способ всё ещё работает, однако точность и эффективность такой группировки сильно снизилась. Причина – сегментация аудитории. Поисковые системы оценивают не ключи в запросе, а кто спрашивает, что ищет и где обычно находит. И в результате у вас формально один кластер поделен между несколькими типами сайтов: тут ищут дешёвое, здесь – выход на производителя или прямого дистрибутора, там – интереснее объёмы выбора. Не попал в свой субкластер – слил бюджеты и ресурсы. Несоответствующая аудитория продажи не обеспечит, и без разницы, откуда эта аудитория пришла.
Конечно же, генеративки. И в этом – и плюсы, и минусы. Невероятное упрощение одних процессов с кратным увеличением задач вообще. Главное достоинство инструментов ИИ я бы лично определил как возможность взглянуть на сайт и контент другими глазами, с точки зрения поисковых алгоритмов.
Это, пожалуй, стоит разобрать отдельно.
Генеративные нейросети как инструмент продвижения
Намного более интересные перспективы в сравнении с конвейером контента открылись в плане аналитики. Поисковые алгоритмы всегда были чёрным ящиком – и вот в этот ящик уже можно заглянуть. Нет, полностью воспроизвести весь комплекс связанных метрик по-прежнему невозможно, а реальные формулы остаются закрытыми. Но с помощью LLM и генеративок вполне можно сымитировать работу поисковиков, – и куда как ближе и точнее, чем любым другим способом.
Всё, что когда-то называлось веб-аналитикой фактически имело отношение только и исключительно к какой-то статистике, притом на самом примитивном уровне, годном разве что для написания отчётов клиенту. Аналитика позволяет на базе имеющихся данных выстроить работающую модель, с помощью которой можно решить конкретную задачу. В этом смысле даже с помощью ИИ мы не сможем предсказать, насколько вырастет конверсионный трафик из поиска, если мы добавим что-то на сайт. Однако мы уже можем определить, чего не хватает на сайте, чтобы он считался достаточно качественным, чтобы показываться по каким-то запросам. Которые, в свою очередь, могут привести на сайт конверсионный трафик.
Но самая приятная возможность – прекратить, наконец, упираться только и исключительно в ключевые слова и заняться непосредственно смыслами. Без этого не стоит говорить о семантике, коммерческих метриках, пользе для посетителей, копирайтинге, оптимизации под голосовой поиск и ИИ-обзоры. Смыслы невозможно имитировать, они либо есть – либо нет. И поисковые системы теперь реально могут работать со смыслами, отдавая предпочтение конкретным данным, а не имитации.
Простой пример: страница «О компании». Я крайне редко вижу на таких страницах действительно конкретную и полезную информацию. Чаще всего – «Мы молодая команда профессионалов, за время работы над проектом выпили 100 тысяч чашек кофе, наша миссия – делать всем хорошо…». Какая информация содержится в этом поэтическом тексте?
Что здесь увидит поисковик? «Компания находится в Казани и продаёт канцелярские принадлежности». Только это. Прочее – пустое. С каким брендами работаете? Официальные дистрибуторы или на «Алике» покупаете и перепродаёте? Гарантии у вас официальные или как обычно? – А то я просто на маркетплейс пойду, там и то информации больше. И если под ключевые слова «магазин канцтоваров Казань» текст, наверное, годится, то для «Алиса, найди мне надёжного продавца ручек "Паркер" в Казани» – уже нет. В чём, к примеру, смысл крутить этот ключевик?
И если вам казалось, что с этим текстом всё в порядке – LLM уже не проведёшь. Как и языковые модели, используемые сейчас на поиске. И проверить это очень легко, без фантазий и гипотез. Загрузил – получил.
Поисковой системе от вашей страницы нужно немногое:
Понять, каким поисковым запросам она соответствует – но не любым, а тем, что действительно имеют поисковый спрос
Найти реально полезную информацию (полезную не для вас, а для собственной базы данных, чтобы показать её пользователям)
Чем больше там «воды» – тем менее страница интересна ПС. Сливаем «воду», добавляем «мясо». И если тут уже всё в порядке – можно думать и о ссылках, и о накрутках ПФ.
А теперь посмотрим, как это всё выглядит на практике.
Практическое применение
Итак, у нас есть сайт, принадлежащий компании, у которой всё в порядке с юридическим статусом, региональностью, доступностью данных о компании в база поисковиков, с нормальной репутацией, конкурентными ценами – и она не собирается вызывать на дуэль «Вайлдберриз» и «Озон». Технически там тоже порядок: посадочная страница доступна для сканирования и индексирования, порядок с адаптивным шаблоном и т.п.
Начнём с анализа поисковых запросов, по которым страница должна бы иметь видимость. Базовый список получаем примерно так же, как 20 лет назад: выгружаем запросы из систем статистики, вычищаем откровенный мусор, закидываем на кластеризацию. И вот тут уже возможны нюансы: кластеризация по топам явно разбивает единый по ключам кластер на несколько более мелких. Логика неясна, чтобы понять её, надо оценить выдачу по каждой группе запросов.
Для старта остановимся на том, что самую важную информацию поисковая система пытается вывести в сниппет. Оцениваем словарный состав. В самом примитивном случае можно попытаться обойтись чистой интуицией, но более точно – привлечь алгоритмы уровня BERTopic, способные классифицировать тексты. Эта фаза должна помочь нам понять, какие субкластеры стоит склеить, а какие – выбросить вообще.
После выявления приоритетных запросов оцениваем свою посадочную страницу на базовые текстовые метрики (по которым тот же Яндекс определяет и коммерческий потенциал). Если ваша страница уже признана релевантной какому-то запросу и имеет позиции – нет особого смысла считать вхождения, их правка едва ли что-то даст. Если же страница пока не ранжируется – стоит ориентироваться на усреднённые или медианные данные, чтобы наверняка попасть в шаблон.
Оцениваем сопоставление корпуса из топа со своим сайтом, находим явные расхождения и устраняем, если возможно. После этого упражнения с лексико-синтаксическими характеристиками можно считать законченными и переходить к более сложной части: собственно семантике.
Для начала оценим поисковые сущности, которые присутствуют у конкурентов из топа выдачи. Для этого я использую Textrazor (это не единственный вариант). Можно использовать его вместе с Python, можно – по API через Custom JS в Screaming Frog SEO Spider. Я чаще всего запускаю скрипт Python, выгружающий найденные сущности из контента в гуглотаблицы. Выгружаем, обнаруживаем закономерности, оцениваем – зачем там эти сущности вообще нужны и какова их роль. Если у вас есть проработанный док с семантическим графом по теме, вопросов возникать не должно.
После этого переходим к анализу основной поисковой сущности и проверке контента на соответствие связанным с ней запросам. С этой задачей идеально справляются LLM. Здесь не нужен список поисковых запросов и систем статистики, достаточно тех семантических связей, что уже есть в модели. Для надёжности можете выгрузить привычные PAA (People Also Ask) с зависимостями и сопоставить запросы и их группировку. Например, для кластера «ручные тали» в пользовательском сегменте вся матрица сущностей будет укладываться в нечто типа [ручная таль, купить дешево, цены, доставка в мой регион, годится ли для…], а в b2b речь уже будет идти о последовательности [ручные тали, китайские, цены от производителя, шефмонтаж, сервис, обучение персонала].
Смотрим, что наиболее важное в полученном списке отсутствует в контенте и что стоит добавить обязательно. Дополняем по максимуму. Оцениваем, какие утверждения не подтверждаются ничем в контенте, и думаем, стоит ли это оставить или всё же убрать. Например, упоминание «по лучшей цене» подразумевает наличие сравнения цен у разных продавцов. Вам нужно на товарной категории рекламировать конкурентов? – Наверное, нет. Максимум – вы можете пообещать эти самые лучшие цены, потому что вы производитель или официальный дистрибутор, который в состоянии скинуть цену. Но хотя бы стартовую минимальную стоит указать.
Любая связанная информация должна присутствовать на странице в прямом виде. Это значит, что на запрос «Алиса, где можно купить перьевые ручки "Паркер" с официальной гарантией» чат-бот не будет париться с тратой лишних токенов, перефразируя ваше «наш интернет-магазин предлагает перьевые ручки от ведущих производителей» – нет, она возьмёт прямолинейное «Интернет-магазин канцелярских принадлежностей "Бюрократ" в Казани предлагает перьевые ручки Parker с гарантией производителя». То же самое касается и топонимов, упоминаний о доставке и т.п. Не рассчитывайте на то, что у вас есть развернутые данные на отдельных страничках или в метаданных. Добавьте кратко эти данные на саму страницу вместе со ссылкой на связанную страницу с развернутой информацией.
Подумайте, чем кроме текста вы можете дополнить контент. Если вы всё ещё заполняете «альты» для стоковых или сгенерированных картинок, которые по факту ничего не иллюстрируют – учтите, что поисковые системы давно оценивают содержимое фото и видео, и понимают, что именно там есть. Если там то, что не надо – это будет проигнорировано. А если вы действительно дополняете смысл текста – это будет оценено.
Резюме
LLM не нужен полный контент страницы: они извлекают фрагменты, содержащие полезную информацию. Больше таких фрагментов – выше ценность страницы. Это касается и языковых моделей поисковых систем, и LLM уровня ChatGPT. Им не нужны ключевые слова, они работают со смыслами и контекстом. Задача лишь в том, чтобы понять, какая именно информация им нужна.
Чтобы страница была успешной в поиске, она должна представлять собой исчерпывающий ресурс по своей теме. Это значит, что контент должен не только полностью раскрывать основную «поисковую сущность» (например, конкретный товар, услугу или понятие), но и давать развёрнутые ответы на множество связанных с ней вопросов, которые могут возникнуть у пользователя. При этом информация должна быть фактической, структурированной и подтверждаемой, чтобы поисковая система могла использовать её для пополнения своей базы знаний (Knowledge Graph или RAG, это уже одно и то же).
Создавая авторитетный узел информации, вы одновременно помогаете пользователю получить полную картину, а поисковой системе — признать вашу страницу экспертным источником по данной теме и использовать эту информацию в ИИ-обзорах. И недалеко то время, когда эту же информацию будут извлекать персональные ИИ-ассистенты: это ближайшее будущее поиска.