Почему традиционные методы SEO непригодны для продвижения в ИИ
ИИ-агенты – уже реальность: они «гуглят» за вас, суммируют информацию, интегрируются с планировщиками и способны кардинально изменить коммуникации пользователя с поиском и сайтами. Что делать бизнесу, чтобы не остаться за бортом в этих условиях, а на что не стоит тратить ресурсы?
Совершенно объективно: традиционный поиск с его маркетплейсами, рекламой и нулевыми блоками себя изжил, а с ним – и традиционная SEO с её акцентом на эксплуатации «дырок» в алгоритмах. Какое дело пользователю до того, что сайт в топе – старый и авторитетный, у него куча ссылок, его текстовые метрики – эталон, если по запросу пользователь видит на сайте чушь, товара нет в наличии или ценник за него в полтора-два раза выше, чем у конкурентов?
Помимо того, что качество сайтов в выдаче оставляет желать лучшего, пользователь ещё вынужден хоть как-то изучить несколько страниц, чтобы сформулировать ответ на свой вопрос, если удастся найти искомую информацию. Беда в том, что информацией его снабжают анонимные копирайтеры (строго по ТЗ с количеством вхождений), фальшивый «доктор» (даже не удосужившийся отрецензировать то, что за него писал безымянный копирайтер) или всё тот же ChatGPT (без малейшей редактуры и фактчекинга со стороны издателя)– на базе всё того же интернета. И для традиционной выдачи это было нормально (несмотря на все озвученные E-E-A-T).
Но вот Яндекс объявил об интеграции «Алисы» в Яндекс-Браузер. Следом за ним – Google встроил Gemini в Chrome (пока только для США), и вот Perplexity выпускает свой браузер Comet с встроенным ИИ-ассистентом. Я попробовал. И знаете – это чудесно: вам не нужно перелопачивать тонны мусора, тратить время на проматывание ленты в соцсетях в поиске крупиц интересующих новостей, это совершенно новый опыт.
ИИ-агенты на смену традиционному поиску
Пользователи успели распробовать мощь больших языковых моделей уровня ChatGPT, Claude и DeepSeek. Их используют как поисковики, ими заменяют живых сотрудников, их рассматривают как высший разум. Но фактически, их время проходит: это была демоверсия, которую показали инвесторам и населению планеты. Попасть в корпус для моделей такого уровня шансов практически нет, если вы не компания уровня какого-нибудь "Electrolux". Но на смену LLM идут малые языковые модели (SLM), более дешёвые, более оперативные – и более эффективные.
Вместо профессора-всезнайки, который читал всё, но понял совсем мало, SLM – это узкоспециализированный профессионал, обученный на небольшом, но тщательно сформированном корпусе. В качестве внешней памяти он использует RAG, предоставляющую информацию из проверенных и актуальных баз данных.
Пример использования ИИ-агента в корпоративной среде. Сотрудник запрашивает у ИИ-агента: «Когда назначено заключение сделки с казанскими партнёрами?» – агент находит документ во внутренней базе данных компании (благодаря RAG), извлечёт оттуда запрашиваемую информацию и предоставит ответ со ссылкой н источник. А вы можете дать ему задание: «Закажи мне билеты, забронируй отель недалеко от центра, и я ещё хочу посмотреть там Кремль и поесть эчпочмак в хорошем ресторане». Агент не просто предложит варианты, он составит маршрут, закажет билеты и забронирует отель, а события добавит в ваш календарь.
В отличие от SEO, ориентированного на человека как на конечного пользователя, взаимодействующего со списком ссылок в поиске, новая дисциплина – AX (Agent Experience), – рассматривает ИИ-ассистентов как основную аудиторию сайтов. ИИ-агенты будут не просто искать информацию, а самостоятельно принимать решения о покупках и совершать транзакции от имени пользователя. Люди будут взаимодействовать с брендами через посредников.
А теперь давайте порассуждаем, готов ли ваш сайт стать источником такой информации, и если нет – что делать? Купить ещё один прогон по каталогам? Покрутить ПФ? Внедрить, наконец, микроразметку? Давайте уточнять.
Почему методы SEO не годятся для GEO/AEO/AISEO
Прежде всего потому, что генеративный ИИ и вопросно-ответные системы независимы от возраста домена, ссылочного профиля, поведенческих факторов, количества вхождений ключевых слов – и видимости сайтов по этим самым ключевым словам.
Их интересует только информация, соответствующая вопросу пользователя. Да, ИИ-агент не станет перелопачивать свалки полумёртвых сайтов, и в качестве внешней базы возьмёт что-то из топ-20-30 – и не более. Ваш накрученный ботами ключевик в топ-5 должен сопровождаться глубоким и ёмким контентом, соответствующим критериям релевантности, а без этого шансов попасть в ответы не будет.
Что же мы видим в поисковой выдаче на тему рекомендаций по оптимизации сайтов для ИИ-систем?
«Используйте абзацы, списки, структурируйте текст» (а раньше текст не структурировали?)
«Используйте принципы E-E-A-T» (которые оцениваются асессорами, чтобы благодаря машинному обучению исключать из индекса откровенный мусор)
«Внедряйте микроразметку» (тоже не внедряли? А ИИ-системы её вообще учитывают?)
«Используйте естественный язык» (разве «Баден Баден» не научил этому 10 лет назад?)
«Подкрепляйте информацию фактами и ссылками на авторитеты» (ИИ-агенты не будут заниматься фактчекингом и по ссылкам не пойдут)
«Увеличивайте скорость загрузки»
бла-бла-бла,
всё тот же поток добрых советов, что даётся при любом изменении в алгоритмах.
Чтобы понять, на чём стоит сосредоточить основные усилия, попробуем разобраться, как работают с информацией ИИ-системы.
Поисковая сущность
Первое и самое важное: ваша поисковая сущность. Точно идентифицируемый объект со своими атрибутами и характеристиками. Для этого не надо попадать в «Википедию» (хотя и очень желательно), годится информация с вашего собственного сайта и нескольких сторонних источников с достаточным авторитетом. Важно, чтобы поисковая система могла связать данные о вас из этих источников, и извлечь оттуда достаточный объём информации.
Пример из практики. «Алиса, что ты знаешь о менеджере по продажам Елене Сидоровой?» – «Елена – эксперт в своей области, работала в ООО “Рога и копыта” 15 лет назад, 10 лет назад участвовала в городских соревнованиях по бегу, а в августе 2025 развелась». Опа, Лена развелась и промолчала? – «Алиса» вытянула всю доступную ей информацию из интернета, а поскольку информации там было совсем мало, в ответ включили и информацию с сайта городского суда (развод был через суд). Та ли это информация, которой стоит светить в паблике? – Конечно же, нет. В данном случае Елене стоит либо вообще удалить из интернета данные о себе, либо, напротив, добавить более подходящие и актуализировать имеющиеся.
Проверьте, какая информация по брендовому запросу о вашей компании известна «Алисе» или Perplexity. В хорошем случае это будут цитаты с профильных порталов, пресс-релизы, новости, подробное описание бизнеса и его преимуществ. В худшем случае эти данные будут извлечены из сервисов проверки юрлиц и ИП, бизнес-каталогов, а то и из материалов какого-нибудь суда.
Важно понять: здесь роль играют не ссылки, а контекст, в котором упоминается сущность (компания или конкретный человек). Важна конкретика и точные формулировки, описывающие заданную сущность, и факты, связанные с ней.
Конкретика и факты
Возьмём всё ещё типичную страничку «О компании» и отдадим её на оценку LLM.
То есть это совершенно пустой текст-погремушка, нужный лишь для того, чтобы было, и вытянуть из него машине ничего не удалось.
ИИ-агенту не важен объём страницы («минимум 300 слов – а то Гугл заругает!»), не важны вхождения ключевиков, водность, тошнота – пусть она и академическая. Ему нужна фактура.
Основная задача контента сегодня – предоставлять исчерпывающую информацию и прямые ответы на возможные вопросы. Если контент не решает какую-то проблему целевой аудитории, не содержит конкретных решений проблем, экспертного мнения, уникальных данных – это мусор ради наполнения сайта и ключевиков. Ценность определяется не объёмом и сопоставлениями с топом выдачи, а концентрацией смысла.
В новой реальности речь идёт о комплексном цифровом следе компании, от тайтлов на сайте до упоминаний сайта на сторонних ресурсах. Небольшой текстовый фрагмент может оказаться весомее огромной статьи. Контекст цитирования намного важнее текста купленной ссылки, не несущей для ИИ-системы смысловой нагрузки.
Фрагмент, а не страница
С того момента, как Google реализовал пассажное индексирование независимо от других фрагментов, ему больше не нужны ваши страницы. Если раньше для ранжирования оценивалась вся страница целиком, то теперь контент анализируется более мелкими фрагментами (пассажами). Точно так же работают и вопросно-ответные системы (AE).
ИИ-системы выбирают релевантные фрагменты точно по такой же схеме. Языковая модель извлекает релевантные отрывки из множества источников, чтобы сформировать из них полноценный ответ на естественном языке.
А из этого следуют следующие выводы:
Одна страница может ранжироваться по запросам из разных кластеров. Если вы всё ещё мыслите в категориях объединения контента по топам – это устарело. Большая статья может присутствовать в топах только из-за одного абзаца. (Подсказка: если для вас остаётся загадкой, почему кластеризация по топу выдачи не складывается воедино – оцените фрагменты этих страниц).
Каждый фрагмент должен содержать чёткую целевую информацию, соответствующую возможному вопросу пользователя по этой теме.
Для ИИ-системы безразличен общий «вес» хоста и его позиция в топе выдачи: нет информации – нечего извлекать.
Если раньше одна статья раскрывала единственную тему, теперь каждый её фрагмент должен отвечать на конкретные вопросы.
Эта технология называется «разветвление запроса» (query fan-out), разберем её подробнее.
Разветвление запросов
Метод разветвления запросов подразумевает следующую последовательность:
Пользователь обращается к системе на естественном языке. ИИ анализирует полученные данные, включая формулировки, основные аспекты темы, возможные намерения пользователя (узнать цену, сравнить варианты, уточнить детали, принять решение). Генерирует подзапросы, соответствующие возможным интентам.
Подзапросы система отправляет во множество индексов, чтобы найти и извлечь соответствующие подзапросам данные. Охватывается вся экосистема (корпус, на котором обучалась система, поисковый индекс, внешние сервисы и т.п.).
Полученные данные объединяются в единый массив, и уже на его базе ИИ-система синтезирует комплексный ответ на естественном языке.
По итогам пользователь получает не набор цитат, а хорошо сформулированный, ёмкий и гипер-релевантный ответ, суммирующий всю доступную информацию. (Подробнее о query fan-out можно прочитать здесь).
Такой подход полностью меняет традиционные SEO-стратегии продвижения. Вы должны быть видны не по каким-то ключевым словам: вы должны наращивать общую видимость в тематике. Чем шире этот охват – тем выше вероятность, что ваш сайт попадёт в ответы вопросно-ответной системы.
А это уже – вопрос про тематическую авторитетность.
Тематическая авторитетность как ключ к ИИ-системам
Тематическая авторитетность — это глубокое и всестороннее покрытие определенной предметной области, подтвержденное качественным, структурированным и взаимосвязанным контентом. Для ИИ-системы сайт с высокой авторитетностью является не просто набором страниц, а полноценной базой знаний по конкретной теме. Такая концентрация экспертизы позволяет алгоритмам лучше понимать контекст, нюансы и семантические связи между понятиями. Вместо того чтобы собирать разрозненные факты с десятков сайтов, ИИ может опереться на один проверенный и глубокий источник, что значительно повышает качество и точность генерируемого ответа.
И вот на этом моменте традиционные методы SEO отказывают:
Вместо лексики, выдернутой из ключевых слов «Вордстата», надо работать с семантическими слоями
Вместо структуры, выдернутой с сайтов конкурентов из топа, надо выстраивать полноценную онтологию, охватывающую смыслы, а не страницы
Вместо формальной микроразметки, охватывающей разрозненные страницы, нужно прорабатывать комплексную семантическую сеть на уровне хоста («Компания "Простоквашинская Мурка" – находящаяся по адресу – предоставляет услуги – перевозка крупного рогатого скота – прайс-лист – гарантии – какие наши документы – усы, лапы и хвост – и т.п»). Ну и да: судя по некоторым тестам, микроразметку ИИ сейчас не учитывают
Вместо QBST, охватывающего действительно важные тематические термины, по которым можно классифицировать контент – мифический LSI, собранный по топам. И вот уже тот самый доктор-ортодонт описывает в своей высоконаучной статье резекцию «шестёрки» словами из лексикона поддатого слесаря-сантехника. С той же интонацией
Пора отказаться от зацикленности на ключевиках и отдельных страницах: надо выстраивать целостные экосистемы взаимосвязанного контента — кластера, который всесторонне охватывает тему, отвечает на все возможные вопросы пользователя и демонстрирует семантическую связь между понятиями. Вы должны стать важным источником данных в своей нише, а на нескольких приносящих трафик и лиды страницах далеко уже не уехать.
Это вовсе не значит, что сайт производителя металлопроката надо превращать в «Википедию» на тему металлургии. Однако если ваша целевая аудитория хочет понять, какую проволоку использовать для сварки и какая стальная лента пригодна для производства ножей – эта информация у вас должна быть.
Резюме
- Интернет, ориентированный на человека как на конечного пользователя, сменяется на интернет, где коммуникации бизнеса и пользователя будут через посредника – ИИ-агента. Способность сайта эффективно взаимодействовать с ИИ-агентом будет важнее видимости сайта для человека.
- Традиционные методы SEO способны лишь косвенно улучшить видимость вашего бизнеса в ИИ-системах благодаря тому, что сайт находится в зоне видимости (ориентировочно – топ-30) и может стать источником данных для этих систем.
- Исходите из того, что вы продвигаете не сайт, а бренд, бизнес. Сайт – всего лишь одна из презентаций вашего бизнеса в интернете, полностью вами контролируемая. Именно поэтому сайт должен стать главным источником данных о компании, своего рода базой знаний, перекрывающей все другие источники.
- Общая видимость сайта в тематике важнее, чем топовые позиции по отдельным ключевым словам. Сайт может не занимать позиции в топ-10, но содержать необходимую для синтезирования ответа информацию.
- Бренд должен быть представлен не только на своём сайте, но и на сторонних авторитетных площадках и в профильных базах данных, – так, чтобы ИИ-агент мог точно идентифицировать его. Данные в разных источниках должны совпадать и дополнять друг друга.
- Упоминания важнее ссылок. Высокорелевантный фрагмент полезнее страницы. Контекст весомее, чем ключевые слова. PR эффективнее SEO-спама.
- Без понимания принципов работы ИИ-систем, полноценного анализа целевой аудитории, паттернов разветвления запросов и добавления соответствующего контента все прочие средства продвижения, считающиеся традиционными (ссылки, накрутки, текстовый спам), не могут быть эффективны.
И в заключение: проверяйте информацию. Весь тот набор способов продвижения в ИИ-системах (GEO, AEO и т.п.), что тиражируется в каждой первой статье на эту тему, воспроизводят теперь и языковые модели. Как ни крути, а ни интеллекта, ни собственного опыта у них нет, это просто хорошо прокачанный Т9.