GEO: как мы создали новый продукт для эпохи AI-ассистентов
Начало пути
Примерно в конце весны 2025 года, уже в роли руководителя SEO-команды, я впервые задумался о создании и разработке нового продукта — отдельного направления по продвижению сайтов под ИИ-ассистентов. Честно говоря, какой-то конкретной цели тогда не стояло — просто хотелось разобраться, куда движется рынок и почему всё чаще привычные SEO-инструменты начали давать не совсем привычные результаты.
Первым звоночком стал случай с одним из наших действующих клиентов. Нам пришла новая заявка на классическое продвижение сайта, но когда мы начали изучать путь этой конверсии в Метрике, оказалось, что заказ упал к нам через реферальный источник… ChatGPT. Пользователь просто задал вопрос ассистенту, а тот порекомендовал нашу компанию.
Этот момент стал для меня поворотным — стало очевидно, что «точки входа» пользователей начинают меняться.
Если раньше всё вращалось вокруг поисковых систем, то теперь на сцену всё активнее выходят AI-ассистенты.
Сегодня около 88 % мирового поиска информации по-прежнему принадлежит Google, ещё около 4 % у Bing, 1,5–2 % у Яндекса, и совсем небольшие доли делят между собой Yahoo, DuckDuckGo и Baidu.
А вот доля чатов и ИИ-сервисов пока кажется незначительной — всего около 3 % глобального объёма поиска. Но важно другое — темпы роста.
Например, ChatGPT уже обеспечивает более 2 % от всего «информационного» поиска, и всего год назад этот показатель был почти в десять раз меньше.
Да, люди всё ещё «гуглят», но всё чаще начинают «спрашивать», а не «искать». И если сегодня AI-поиск — это всего 3 %, то через пару лет он вполне может занять 8 % и больше, особенно в нишах, где важен персонализированный ответ, а не просто ссылка.
Меняется не только поведение пользователей, но и сами поисковые системы.
Google уже тестирует режим AI Overview, а Яндекс — Нейропоиск.
Теперь на экране первым появляется не список ссылок, а готовый ответ, сгенерированный на основе контента сайтов. Алгоритм сам выбирает, кого процитировать и на чей сайт сослаться.
По сути, SEO превращается в борьбу не только за позицию в выдаче, но и за цитирование в ответах искусственного интеллекта.
К тому же крупные инструменты вроде Ahrefs уже начали адаптироваться — в интерфейсе появилась отдельная статистика по видимости сайтов в AI-ассистентах.
Это ещё одно подтверждение: рынок меняется, и быстро.
А окончательным триггером стало то, что всё больше клиентов начали напрямую спрашивать, оказываем ли мы услуги по продвижению сайтов в AI-ассистентах.
На тот момент — нет. И именно это «нет» стало отправной точкой для создания и разработки нового продукта, который позволил объединить классическое SEO и современные требования поискового пространства, где всё чаще решают ИИ и ассистенты.
Почему классического SEO больше недостаточно
Оценка результатов классического SEO всегда опиралось на набор привычных метрик: позиции, CTR, трафик, конверсии, поведенческие факторы и другие показатели, которые помогают оценить динамику продвижения.
Но даже они не всегда отражают реальную эффективность SEO для бизнеса.
Можно вывести сайт в топ по нерелевантным или «нулевым» запросам, нарастить информационный трафик на коммерческий проект — и при этом не получить роста продаж, заявок или обращений.
То есть цифры в отчётах будут красивыми, а цели компании — не достигнуты.
1. Классическое SEO не учитывает влияние ИИ-агентов и чат-поиска
На первый взгляд, SEO-рынок остаётся прежним. Но точки входа пользователей начали меняться. Всё больше людей не ищут, а спрашивают — у ChatGPT, Copilot, Perplexity и других ассистентов.
Такие системы не показывают десятки ссылок, а синтезируют единый ответ, опираясь на контент, доступный в открытых источниках.
И вот тут возникает первая проблема — если сайт не оптимизирован под машинное чтение, заблокирован от обхода GPTBot, PerplexityBot или Google-Extended, либо просто не имеет структурированных данных, он может не попасть в базу, из которой ассистент формирует ответ.
Фактически сайт может быть в топе Google или Яндекса, но при этом отсутствовать в контексте AI-поиска.
2. Потери бизнеса: сайт есть, а в ответах его нет
Из-за этого компании начинают терять часть целевого внимания.
Даже при хорошем органическом трафике и стабильных конверсиях — пользователи всё чаще останавливаются на ответе ИИ, не переходя на сайт.
Хуже того, в этих ответах ассистенты могут упоминать конкурентов, формируя у аудитории ассоциацию бренда с другим именем или источником.
Получается парадокс: SEO-показатели растут, а точек контакта с пользователем становится меньше.
И классические инструменты аналитики просто не видят этих потерь — ведь перехода как такового не было.
3. Почему привычные метрики больше не дают полной картины
Даже комплексный SEO-отчёт не учитывает одного — где именно пользователь получает ответ.
Если раньше ключевым этапом был переход из SERP, то сегодня всё чаще контакт происходит внутри AI-чата.
Позиции, CTR и даже конверсии теряют прозрачность, когда сайт не участвует в AI-экосистеме.
Это не значит, что классическое SEO устарело — наоборот, его роль остаётся фундаментальной.
Таким образом, привычная SEO-модель перестаёт быть замкнутой системой, где всё можно измерить позицией и кликами.
Появился новый слой видимости — видимость в AI-пространстве, и если его не учитывать, бизнес теряет не позиции, а контроль над тем, как о нём рассказывают пользователям.
Идея нового продукта
После первых наблюдений и клиентских запросов стало понятно: речь идёт не о временном тренде, а о новой модели восприятия информации.
Из этого и выросла концепция «SEO под ИИ и AI-ассистентов» — как логичное продолжение классического продвижения, только с фокусом на то, как сайт видят и интерпретируют нейросети.
Какие задачи решает продукт
Сегодня клиенты приходят не просто за позициями — они хотят, чтобы их бренд появлялся в ответах ChatGPT, Copilot, Perplexity, а также в AI-режимах Яндекса и Google.
Именно поэтому новый продукт решает три ключевые задачи:
1. Проверка видимости сайта в AI-ответах
- Анализирует, цитируют ли ассистенты сайт, как часто упоминают бренд, корректно ли передают информацию.
- Определяет точки роста: где сайт «выпал» из базы знаний и почему.
2. Оптимизация структуры и контента под LLM-сканирование
- Контент упаковывается в формат, удобный для чтения нейросетями: чёткие тезисы, Q&A-формат, таблицы, HowTo-инструкции, факты, цифры и локальные данные.
- Семантика строится вокруг вопросов и ответов, а не просто ключевых слов.
- Заголовки (Title, H1, H2) становятся «осмысленными маркерами» для машинного понимания.
3. Подготовка сайта для GPTBot, PerplexityBot, Google-Extended и других AI-краулеров
- Проверяется robots.txt, доступность сайта через curl-тесты с AI-User-Agent, корректность редиректов и кодов ответа.
- Анализируются логи сервера: какие боты заходят, какие страницы обходят, где теряются.
- При необходимости — правки настроек, чтобы AI-боты не блокировались и корректно индексировали контент.
Ядро продукта
Если выделить главное, то ядром продукта стали три направления:
- Технический аудит сайта под требования ИИ. Проверка доступности, структуры, robots.txt и стабильности для корректного обхода AI-ботами.
- Оптимизация контента. Подготовка текстов, заголовков и разметки под формат, удобный для LLM-моделей: структурированный, фактологичный и легко интерпретируемый.
- Работа с репутацией. Формирование цитируемости бренда: упоминания в открытых источниках, работа с отзывами, создание карточек в базах знаний, публикации в СМИ и каталогах.
Разработка и тестирование
После того как идея оформилась, началась самая интересная часть — практическая проверка гипотез.
Первым этапом стал глубокий серфинг интернета: я изучал всё, что только можно было найти по теме — статьи, кейсы, обсуждения на форумах, редкие упоминания в зарубежных блогах и исследованиях.
Нужно было понять, кто уже работает с этим направлением, какие решения существуют и где заканчиваются границы классического SEO.
При этом ценным источником информации стала и наша команда: ребята уже тестировали некоторые гипотезы на своих проектах, анализировали, как AI-боты реагируют на разные настройки и форматы контента.
Эти наблюдения помогли быстрее перейти от идей к практической проверке.
От гипотез к структуре
Когда первичная информация была собрана, я начал её структурировать.
Так появился первый план работ — тот самый документ, который позже стал основой продукта «SEO под AI-ассистентов».
Для каждого этапа я прописал чек-листы, типовые задачи и особенности:
- Как проверять доступность сайта для GPTBot, PerplexityBot и Google-Extended;
- Какие элементы контента подстраивать под LLM;
- Как выстраивать работу с упоминаниями и репутацией.
Это был, по сути, первый скелет методологии — структурированный набор гипотез и задач, которые нужно было подтвердить на практике.
Тесты и доработка методики
После этого мы перешли к тестам.
Начали с внутренних проектов компании, чтобы без риска обкатать методику на реальных данных.
Каждая гипотеза фиксировалась в карте тестов:
- то, что показывало эффект — оставалось;
- что не влияло на результат — удалялось или перерабатывалось.
Так постепенно вырисовывалась рабочая схема, а вместе с ней — система приоритетов задач: что действительно влияет на видимость в AI-ответах, а что даёт только теоретический эффект.
Этот процесс напоминал настройку сложного механизма: убираешь одну деталь — и сразу видишь, где падает эффективность.
Первые результаты
Первые подтверждения того, что мы движемся в правильном направлении, появились уже на собственных сайтах.
Мы начали замечать, что AI-боты стали чаще обходить страницы, а некоторые материалы начали появляться в ответах ChatGPT и Perplexity.
Параллельно выстроились первые метрики видимости — чтобы можно было отслеживать динамику и измерять реальный эффект.
Но настоящий момент “щёлкнуло” произошёл, когда мы впервые презентовали продукт потенциальному клиенту.
После демонстрации структуры и первых тестовых результатов он сразу решил купить услугу.
Это стало важной точкой: стало ясно, что продукт нужен не только нам самим, но и рынку.
Что я вынес из этого этапа
Если честно, ценным оказалось всё: и технические открытия, и само ощущение, что мы с командой стоим у истоков нового стандарта SEO.
С каждым тестом становилось всё очевиднее, что оптимизация под ИИ — это не просто ещё одно направление, а естественное развитие всей отрасли.
А если сформулировать коротко —
«Мне кажется, мы с командой только в начале этого пути».
Создание нового продукта — это всегда путь из вопросов, тестов и неожиданных открытий.
Когда мы начинали, не было готовых методик, кейсов или чётких ориентиров.
Был только факт: привычное SEO меняется, и вместе с ним меняется поведение пользователей, поисковых систем и AI-ассистентов.
Сегодня «SEO под ИИ» (или GEO) для нас — не просто услуга, а новая точка роста для бизнеса.
Она объединяет техническую точность классического продвижения и адаптацию под форматы, в которых нейросети читают, анализируют и цитируют сайты.
Да, мы пока только в начале пути.
Но уже сейчас видно, что за этим направлением — будущее SEO.
И чем раньше компании начнут работать с видимостью в AI-пространстве, тем выше их шанс стать голосом, который услышит искусственный интеллект.
А вы уже задумывались, как ваш сайт выглядит глазами ChatGPT, Perplexity или Яндекс Нейро?
Появляется ли ваш бренд в AI-ответах — или пока остаётся за кадром?
Поделитесь в комментариях своим опытом: замечали ли вы уже влияние AI-поиска на трафик и заявки?