Как попасть в нейро-ответы в выдаче, исследование на 1 млн запросов: «Поиск с Алисой» vs AI Overview
Мы спарсили нейро-ответы в поиске Яндекса и Google по миллиону запросов, определили наличие и степень точности нейро-ответов по разным отраслям, а также проанализировали связь между попаданием страниц в топ обычного поиска и в нейро-ответы. Спойлер: обе нейросети порядочно врут, но выходить в топ-10 все равно нужно.
У нас был 1 млн фраз (коммерческие, инфо, навигационные и ЕЕАТ). Мы спарсили нейро-ответы и топ-10 по этим фразам в Яндексе и Google.
Что мы проверяли:
- Наличие нейро-ответов: Нейро-Алиса и AI Overview — кто больше.
- Галлюцинации в нейро-ответах: кто больше.
- Кто попадает в нейро-ответы и за какие заслуги?
Для начала: вы уже опоздали
Естественно, всех интересует даже не точность нейро-ответов, а шанс попасть в эти ответы в роли источника. LLM-ответы в выдаче забирают органический трафик, логично стремиться компенсировать эти потери. Но попасть в нейро-ответ не так-то просто.
За нейро-ответы в поиске Яндекса и Google отвечают соответственно Alice AI LLM и Gemini 2.5 Search (на дату написания статьи). Ответы они собирают на базе собственных знаний, дополняя их поиском в интернете. Но тут есть подвох.
Всем нейросетям свойственно стремление к экономии ресурсов. Именно поэтому они начинают с поиска по собственным базам знаний (это быстро и дешево) и только при необходимости идут за данными в интернет (долго и ресурсоемко). Необходимость определяется контекстом запроса. Если понятно, что запрос не привязан к (свежей) дате, и ответ может быть собран из собственных «накоплений», то тратить ресурсы на выход в интернет нейросеть не станет.
Собственная база знаний Gemini 2.5 актуальна на январь 2025 года (релиз был в июне 2025).
Даты среза базы для свежей Нейро-Алисы (Alice AI) в открытых источниках нет. Предыдущая модель YandexGPT 5 Pro имела срез на апрель 2024 года. Новую Алису выкатили в октябре 2025 года. Эксперты утверждают, что пост-обработка данных, обучение и тестирование занимают от 6 до 10 месяцев до даты релиза. Так что вряд ли база Нейро-Алисы намного свежее, чем у Gemini — максимум весна 2025.
Для сравнения:
- GPT-5 (Reasoning) — релиз 7 августа 2025, срез 1 октября 2024.
- Claude 4.5 Sonnet — релиз 29 сентября 2025, срез февраль 2025 (!).
- DeepSeek V3/DeepSeek-V3.2-Exp — релиз сентябрь 2025, срез июль 2024.
- Grok-4 — релиз 9 июля 2025, срез ноябрь 2024.
Что это значит для пользователей? В целом ничего, месяцем раньше, месяцем позже, какая разница.
Что это значит для бизнеса? Если вы до сих пор не вкладывались всерьез в SEO и контент своего сайта, то шансов найтись в базах нейросетей у вас очень немного.
И если сейчас хочется видеть свой сайт в качестве источника для нейро-ответов, то придется очень быстро и дорого делать то, что другие уже сделали к 2024 году.
Мы недавно писали о том, как мониторить присутствие бренда в нейросетях и как оптимизировать сайт под нейро-поиск. Вот отсюда придется начать.
А мы вернемся к нашему исследованию.
Итак, что мы парсили
Мы собрали полтора миллиона фраз по разным направлениям, почистили их от мусора. Остался примерно миллион фраз, разбитых по категориям.
Виды запросов:
- Инфо
- Коммерческие
- Навигационные
- E-E-A-T
Категории:
- Геозапросы инфо
- Геозапросы коммерс
- Медицина инфо
- Медицина коммерс
- Финансы инфо
- Финансы коммерс
- Юриспруденция инфо
- Юриспруденция коммерс
- Выбор_Рекомендации
- Где купить
- Объяснения
- Определения
- Поиск знаний
- Поиск сайтов
- Сравнение товаров
- Транзакционные
- Цены_Акции
- Эмоциональные_Личностные
- How to
- Вопросы
Как это выглядит:
Условия сбора данных:
- Устройство: мобайл
- ГЕО: Москва
- ТОП-10 органики в Яндекс / Google (10 страниц, которые ранжируются по фразе)
- Наличие нейро-блока (Яндекс НейроАлиса, Google AI Overview)
- Текст нейро-ответа (Яндекс НейроАлиса, Google AI Overview)
- Источники нейро-ответа (URL сайтов)
Мы ограничили число запросов, регион и девайс, чтобы парсинг и анализ не растянулись на полгода. И так пришлось потратить почти три недели только на то, чтобы пробиться в AI Overview (Google очень, очень не любит делиться информацией о выдаче).
Что еще важно понимать:
Мы парсили достаточно простые запросы (в основном ВЧ/СЧ), пользователи обычно задают вопросы более подробно. Естественно, мы получили «усредненные» ответы без персонализации. Как и любые другие результаты автоматического парсинга, они могут отличаться от персонализированных ответов, которые вы сами пробьете в поиске. Но тренды такой парсинг показывает.
Нейро-Алиса vs AI Overview: кто больше?
Общий счет: 39,71% Алиса / 50,19% AI Overview.
Наличие ответов сильно разнится по отраслям и типам вопросов. Вот, к примеру, разбежка в количестве ответов по четырем крупным категориям инфо/коммерс:
Можно отметить лидерство Яндекса в инфо-геозапросах, хотя провал в коммерческих геозапросах объяснить сложно. Медицина — стабильно сильное место у западных нейросетей.
Другие категории запросов:
В двух больших категориях, где ответов было на порядок больше, — How To и Вопросы — Google и Яндекс идут почти голова в голову:
Интересно было узнать, пересекаются ли ответы по отраслям. Как оказалось, запросов, по которым были бы нейро-ответы и у Google, и у Яндекса, не так много. Сравнивая ответы и урлы, попавшие в них, мы увидели, что базы знаний у соперников различаются радикально.
В процентах это выглядит так:
Можно отметить, что коммерс пересекается редко, а категории, где совместных ответов больше, относятся к общему знанию: определения, объяснения, вопросы, How To.
Миражи и галлюцинации
Что характерно, ошибки у соперников также не пересекались. Если где-то AI Overview был точен, то Нейро-Алиса путалась в показаниях, и наоборот.
Вот милый пример: где в Питере найти кафе с капибарами. Для Алисы не составило труда найти источники, это кафе обсуждается во ВКонтакте, о нем пишут на Дзене. Gemini же ВКонтакте и Дзен почти не читает, в итоге иностранные гости могут это кафе и не найти. А жаль.
Но именно на Дзене обнаружилась ловушка для Нейро-Алисы. Если поверить поиску с Алисой, в Краснодаре запрещено днем продавать алкоголь, хотя по всей России запрет относится к ночным часам.
Источник косяка — безымянный копирайтер, который в статье на Дзене сделал эту ошибку:
Вообще, как уже упоминалось, базы знаний у нейросетей существенно различаются. Все источники отмечают, что LLM Яндекса лучше ориентируется в культурных и локальных событиях и фактах. Вот наглядный пример:
Яндекс легко собирает данные по своей же экосистеме, а Gemini берет информацию из авторитетных для нее источников без локализации.
Иногда краткость вопроса сбивает нейросеть с толку. И это стоит помнить, общаясь с ними. Вот курьез, корни которого удалось обнаружить с большим трудом: ответ на вопрос «как лепить пластырь».
Нейро-Алиса не только предложила нам странный алгоритм наклейки пластыря, но и отправила в лес, искать гриб на березе. Мало того, что вариант с березовым грибом (не путать с подберезовиком!) сам по себе странен, так еще и инструкция неточна. На дубе таких грибов вы не найдете, а сам гриб не слишком эластичен.
«Грибная» инструкция была обнаружена Алисой на англоязычном сайте, далее — неточный перевод, и вот мы уже ищем в лесу странного.
А вот алгоритм наклейки пластыря на самом деле вполне точен. Просто это другой пластырь! Есть обычные медицинские пластыри, которые мы используем при порезах. Есть пластыри для тейпирования — тейпы. И есть китайские согревающие пластыри. Как раз их и наклеивают таким способом:
Почему при ответе о пластырях Нейро-Алиса предпочла китайские изделия, мы никогда не узнаем. В персонализированных ответах обе нейросети вполне корректно рассказывают о медицинских пластырях и тейпах.
А вот медицинский курьез AI Overview уже не так забавен. На вопрос о снижении сахара в крови он выдал: выпейте побольше (!) сладкого чая. Не делайте так!
Источник ошибки — «торопливость» поиска. Как мы помним, нейросети стараются экономить ресурсы. В итоге они берут первый встреченный факт, подходящий по семантике и релевантности, и далее не смотрят. Известно, что нейросети не рассматривают тексты связно, они разбирают их на отдельные блоки — попался блок про сахар в крови, берем не глядя.
В статье-исходнике были советы и по снижению, и по повышению сахара в крови. Что первое подвернулось, то и пошло в ответ.
Будьте внимательны, перепроверяйте ответы и не лечитесь в нейросетях!
В целом, как мы поняли, разбирая ошибки, — доверять обеим нейросетям (да и всем прочим) надо с оглядкой. А на собственном сайте нужно размещать исключительно точные сведения, удобно размеченные для нейро-поиска.
Приоритет ИИ — выполнить задачу пользователя в минимальное количество токенов. Если самый быстрый путь для ее выполнения — это ПРЕДПОЛОЖЕНИЕ, то она так и сделает.
А пользователь не запомнит, где видел ответ, и некорректные сведения от нейросети у него в итоге ассоциируются с брендом, который ни сном, ни духом.
Галлюцинации в цифрах
Как мы проверяли ответы:
- Мы получили файлы по категориям с нейро-ответами (более 834 000* ответов).
- Прогнали нейро-ответы через фактчек Gemini 2.5 по API.
- Выделили ответы, которые Gemini счел недостоверными — больше 47 400 ответов.
- 5% недостоверных ответов в каждой категории прогнали вручную нашим фирменным фактчекером (FactFox на базе ChatGPT).
- Суммарно перепроверили 2373 ответа.
Мы делали фактчек не для всех 930 тысяч ответов. Часть ответов, зависимых от даты, чекать не стали. При проверке по API выход в интернет — это очень медленно и очень дорого, а без интернета любой ответ с упоминанием 2025 года нейросеть будет считать домыслом из будущего.
Общий счет:
- НейроАлиса — 8,87%
- AI Overview — 9,02%
В целом, если посмотреть на график, можно видеть, что число ошибок нигде не превысило 25%, и это очень неплохой показатель для нейросетей, которые путаются в капибарах и не умеют клеить пластырь)
Сколько ошибок в ошибках?
Полученные результаты нас не до конца удовлетворили, и мы перечекали выборочно по 5% ошибок по всем категориям. Часть ответов, отмеченных Gemini как неточные при автоматическом прогоне, оказалась все же точна. На графике ниже вы видите процент ошибок, которые так и остались ошибками после ручного чека:
Почему так вышло? Во-первых, ничто не идеально, в том числе фактчек по API. Предварительные тесты показали точность проверки Gemini 2.5 — 78-85%, и мы сочли этот показатель достаточным.
Во-вторых, в «ошибки» фактчек записывал три статуса:
- Недостоверно.
- Есть погрешности в ответе.
- Недостаточно данных, требуется проверка.
При ручном фактчеке некоторые погрешности оказывались несущественными, а там, где Gemini не хватало данных, наш фактчек их находил.
Наш фирменный фактчек
Кстати о нашем фактчеке. Он доступен (при включенном VPN) на платном аккаунте: https://chatgpt.com/g/g-68e3fc1146888191a56cb5c62911166f-factfox-ot-moab-pro, пользуйтесь на здоровье. Как вы можете видеть, ответы нейросетей надо проверять и перепроверять.
Рекомендуем перед запуском выбрать «устаревшую» модель о3. По нашим тестам, она наиболее точна в проверках.
Нужно ли быть в ТОПах ПС, чтобы попадать в нейро-ответы?
Простой ответ: да!
Но есть нюансы.
Мы проанализировали простую связь — присутствие одних и тех же URL в нейро-ответах и в ТОПах выдачи:
- Отобрали список ТОП-10 URL, которые попадают в нейро-блоки по каждой категории.
- Посчитали, сколько раз эти URL попадали в ТОП-1/3/5/10 выдачи (по любым запросам).
Выглядело это примерно так:
Что важно понимать, и об этом мы писали в статье «А ваш сайт нравится нейросетям? Чек-лист оптимизации под AEO/GEO»: ссылка в нейро-ответе может и не появиться, если нейросеть имеет в своей базе достаточно материалов для ответа.
Нейросеть сошлется на вас, если ваш ответ хороший (точный, исчерпывающе закрывающий тему) и при этом целиком его процитировать не получается. Либо ответ слишком объемный, либо вы упаковали его в формат, который «не лезет» в блок ответа. Например, большая таблица сравнения, PDF с пошаговым гайдом, инфографика, видео и проч.
Нейро-Алиса и ТОП выдачи по категориям
В процентном отношении по категориям: в среднем 63,46% URL, попадавших в Нейро-Алису, ранжировались в ТОП-5 органики.
Обратите внимание, некоторые URL присутствуют в выдаче гораздо чаще, чем в нейро-ответах. Возможно, на большей выборке нейро-ответов этот разбег уменьшится. Нам же сейчас нужно было увидеть, связано ли присутствие в Поиске с попаданием в нейро-ответы.
Важно: из достоверных источников известно, что Нейро-Алиса постоянно освежает базу. Но есть определенные условия попадания в поле зрения Алисы:
- Качественный экспертный контент.
- Строго: присутствие в топ-20 выдачи Яндекса.
Нет сайта в топ-20 — нет ссылки в нейро-ответах Алисы. Хотите в нейро-ответы? Вкладывайтесь в SEO.
AI Overview и ТОП выдачи по категориям
В процентном отношении по категориям: в среднем 61,69% URL, попадавших в AI Overview, ранжировались в ТОП-5 органики.
Аномальные выбросы по категориям «Объяснения», «Выбор_Рекомендации» и «Геозапросы инфо» требуют более глубоких исследований, есть предположение, что при более широком сборе нейро-ответов по этим категориям показатели сгладятся.
Но в целом можно отметить, что влияние топ-5 на попадание в нейро-блок Google выглядит менее сильным, чем в Яндексе.
Домены в нейро-ответах: разбивка по тематикам
Далее мы анализировали уже не отдельные страницы сайтов, а домены, чьи страницы нашлись в нейро-ответах — то есть картину в целом.
Чтобы присутствовать в нейро-выдаче, не нужно быть порталом федерального уровня. В нейро-ответы можно попадать даже с «простыми» сайтами.
Когда мы собрали статистику по доменам, попавшим в нейро-выдачу, нас настигло некоторое удивление. Удивитесь и вы.
Кого читает Алиса (топ-30):
Лента.ру на втором месте никого не удивит (хотя молодцы, несомненно), но контент-команде «Халва медиа» — наш высочайший респект. Мы сразу же залипли в разделе «Ретроградный Меркурий». Обратите внимание на количество прочтений.
Ложка дегтя в этой бочке мёда конечно же есть. Да, ссылки на статьи «Халва медиа» в категории «Объяснения» встречаются экстремально часто, но что дальше? В воронку добавляется еще один шаг, а как известно, на каждом шагу конверсия снижается. Плюс околотематичность статей, которая сработает, только если человек находится внутри бренд медиа, где ему попадаются на глаза коммерческие блоки.
Да, слабая релевантность продукту — общая боль бренд медиа в потреб. тематиках, но тут она становится в разы больнее. Ведь в нейро-ответе кроме ссылки, по которой надо еще кликнуть, есть и готовенький ответ. А раз так, зачем куда-то идти?
Выход есть, но он займет время и не обойдется без затрат. Делать настолько качественный и плотный контент, что нейросеть просто не сможет его полностью процитировать. И гарантированно будет давать ссылку. А пользователь будет по ней идти, так как не получил полного ответа от умненькой ИИшечки.
Еще один сюрприз — кого читает Gemini (топ-30):
Гугловская нейросеть не вылезает с ya.ru, добывая там информацию. Большинство ответов в категории «How To» были взяты из поиска Яндекса. Видимо, Яндекс знает как лучше.
Мало того, AI Overview буквально списывает у Нейро-Алисы (ya.ru/neurum):
Это площадка с готовыми вопросами/ответами, там тоже есть ссылки на источники, но ответы настолько развернутые, что по ссылкам уже незачем идти. Тем более что еще нужно добраться туда из выдачи Google. И помните, что мы писали в начале про устаревшие базы? Это живой пример.
Топ-10 доменов по категориям
Все категории можно посмотреть в таблице. Вот некоторые из них.
По брендам для обеих нейросетей Википедия всегда ТОП источник. Но вообще у каждой ПС свои трастовые источники: Youtube, Google Translate и Reddit в Google, Дзен и ru.wiki в Яндексе.
Общий вывод прост: в нейро-выдаче еще полно места. Стать источником нейро-ответов может любой (хорошо LLM-оптимизированный) сайт.
Советы юному парсеру
На опыте нашего парсинга и анализа мы вывели несколько практических советов, которые упростят вам подходы к сбору и обработке данных.
Оценивайте только свое ядро:
- Собрали семант, важный для вас.
- Спарсили выдачу Яндекс + Google, выделили нейро-блоки.
- Посчитали по какому % вашего ядра есть нейро-блоки.
- Поняли, насколько много их вообще в вашей тематике.
- Поняли, по каким фразам вам нужно попадать в нейро-блоки.
- Занялись LLM-оптимизацией.
Больше об оценке видимости бренда в LLM читайте в нашей статье.
Не получается? Приходите к нам, мы умеем: