Искусственный интеллект добрался до Google и убивает SEO?
С добавлением SGE (Search Generative Experience) результаты органической выдачи уходят далеко за первый экран — более чем на 1500 пикселей. Пользователям приходится делать 1-2 скролла, чтобы добраться до традиционного топ-3. Значит ли это, что и традиционное SEO скоро перестанет работать? Будем разбираться в обзоре от Rocket Business.
Методологическая справка
Здесь коротко расскажем о том, как проводилось исследование.
- Анализировали массив из 1000 коммерческих запросов по сферам: автомобильная промышленность, e-commerce, развлечения, одежда, еда, здоровье, техника, путешествия и юридические услуги.
- Результаты проверяли в США через несколько авторизованных Google-аккаунтов с функцией SGE.
- Устройства — ПК с Windows 11 и разрешением экрана 1920 x 1080. Видимая область просмотра — около 940 пикселей.
Авторы не учитывали влияние персонализации на результаты исследования. Запросы были сделаны случайным образом, при этом пользователи не переходили по ссылкам из органики — лишь изучали SGE-выдачу.
В начале статьи звучит главный тезис:
Что по цифрам?
Авторы исследовали два типа SGE-выдачи: с кликом на кнопку генерации и на кнопку «Подробнее». Независимо от типа SGE, первая строка выдачи падает в среднем на 1500 пикселей или в 1,5 раза больше видимой области просмотра на экране.
Важно: если пользователи не кликают на кнопку генерации, изменений не происходит. Первая строка органической выдачи остается на своем месте.
Далее авторы анализируют несколько пользовательских сценариев. Что происходит, если нажать не только на кнопку генерации, но и на «Подробнее»?
Первая строка перемещается вниз примерно на 1630,9 пикселей. Представьте себе, что вы скроллите весь первый экран, а затем еще немного, чтобы увидеть первый результат обычного поиска.
А что содержит сам SGE? Это подборка в среднем из 10 ссылок с 4 разных сайтов.
SGE и органическая выдача
Важный вопрос: совпадают ли сайты в результатах SGE-поиска с топ-10 органической выдачи? Авторы отвечают: почти не совпадают.
В 93,8% случаев ссылки в SGE не относятся ни к одному сайту на первой странице.
Всего точных совпадений, когда позиция страницы в SGE соотносится с позицией в органике, — около 4,5%. А общий процент совпадений доменов составил всего лишь 1,6%.
В 115 результатах SGE-поиска появлялись быстрые ответы — featured snippets. Но и здесь есть загвоздка. Содержимое SGE отодвигает быстрые ответы далеко вниз. В среднем они падают на 1478,7 пикселей — или на 136,9% высоты области просмотра.
Действительно ли это плохие новости?
Анализируем позиции на примере
Как меняется органическая видимость Википедии при использовании SGE? Значительно — позиции упали в среднем на 9,7 строк. В пикселях — на 1507,9 (139,6% области просмотра). Значение превышает стандартную высоту экрана.
Но теряет ли при этом что-то сама Википедия? Здесь следует учесть факт: SGE состоит из текстового ответа и подборки сайтов. Иногда URL отображаются еще до клика на кнопку «Подробнее», иногда — после. Википедия регулярно попадает в результаты SGE-выдачи. А сгенерированный контент размещается в самом верху поисковой выдачи.
В большинстве случаев Википедия занимает топовые позиции в SGE-выдаче после клика на кнопку «Подробнее». Она не рискует потерять позиции в общей выдаче и, как следствие, трафик.
Чуть-чуть позитива
Авторы надеются, что диаграмма ниже, как и все исследование, даст SEO-специалистам повод для надежды. Даже если домен сегодня не очень хорошо ранжируется, новые пользователи могут приходить из SGE-поиска.
Кроме того, стандартный подход к оценке эффективности SEO-стратегии придется менять. Процент ключей в топе и кликабельность сниппета в выдаче по-прежнему будут иметь значение и для SEO-шников, и для их клиентов. Но теперь придется учитывать разные результаты: до и после клика на кнопку генерации.
Конечно, когда она появится. Пока что функция недоступна на территории большей части Европы и тестируется на пользователях Google Chrome и Google App.
Давайте поболтаем в комментариях! Как думаете, как повлияет SGE-поиск на рутину SEO-специалистов?
Незачем держать в индексе мусорный дублирующийся контент (коего 99% в любой тематике). Всё, что можно заменить сокращённым обобщённым ответом от генеративки - будет сокращено.
И хорошо.
Хорошо, если они сократят дублирующийся контент. Плохо, если при этом под каким-нибудь предлогом исключат тот, который составляет 1%.
Они сами парсить ничего не будут. Просто пересказ топов для тех, кому впадлу читать и вдумываться. Обычный чатбот, паразитирующий на serp - эдакий расширенный нулевой блок.
То-то и оно.
Ну неплохо так расширенный. На мобилке не то что 1, а 2-3 экрана может занимать.
Вопрос экспериментов. Задачка-то там простая: никуда ползателя с выдачи не отпускать. Формально - должно учитывать пользовательские сигналы. Стало быть, либо врут про сигналы, либо массам этого достаточно, пора выпускать кракена.
SGE уже своего рода кракен, если честно. Хотя я весь движ с ИИ люблю, в поиске его не очень хочу видеть
Разделятся неизбежно. Будет ассистент на генеративке, будет и поиск в старом смысле - IR, с минимумом рекламы и попытки подсунуть мне магазин со скидками вместо того, что я запрашиваю.
Дожить бы только.
:D
Да что мы, скроллить не привычны?
Да пальцы уже болят. И так сайты мусорные в выдаче, теперь еще больше ерунды пролистывать надо будет.
Мудрые слова. Наконец-то вечный совет "Делайте сайты для людей" рискует нормально лечь на практику SEO
интересно, будет ли ии убирать то, что реально интересно и как он определит, что удаляет нечто ценное?)
Не будет он определять "реально интересно" и "ценное". Он будет давать ответ, релевантный запросу.
Еще ребят, большой вопрос к источнику authoritas.com: они говорят что провели исследование на 1000 коммерческих запросов, типо salad, fish, food, cpa, egg, eggs. Они кроме того что не постарались на небольшой выборке убрать явные дубли запросов, так еще добрая треть это общие и информационные запросы. Что делает их бенчамрки шумными и доверия не вызывают
Ну вообще не хочу полагаться на ответы, сгенерированные нейросетеой. Особенно в жизненно важных вопросах. Например, медицинских. Это я как пользователь говорю, я не как сеошник 😁
Очень надеюсь, что для определённых сфер будет ограничен список источников, откуда будет генерироваться инфа. Иначе это будет просто ужас
А вообще интересно, что получится и что нам всем с этим делать. Пока что все рассуждения смысла не имеют, потому что по факту это просто тест новой функции, ты не знаем, как она реагирует на один тот же запрос, заданный 2 раза. Так что это все какая-то философия 😁😁😁
По факту пока примерно так (а пользователь, может, имел в виду судового повара или имя)
Тут все зависит от возможности влиять/попадать в данный блок как источник. Но ещё от рекламы зависимость есть. Поисковые системы получают доход с рекламы на других сайтах. Нет информационного трафика = нет дохода как Вебмастерам, так и поисковикам.
Мы проводили исследование еще пол года назад когда только запустился эксперимент в Google. Задача попадания в колдущик решаема, кому интересно может чекнуть статью https://www.seonews.ru/analytics/kak-zasvetitsya-v-otvetakh-bard-bolshoe-issledovanie/
Все будет зависеть от запросов. Они разные, есть информационные, если ваш вопрос очень простой "как сварить кукурузу", то вам и поисковик даст ответ с SGE в начале. Но, если уже более сложное, то тут есть варианты, генерированного ответа и вероятно придется искать как ранее искали по сайтам. Особенно если не уверены в этом ответе.
Коммерческие тут уже как раз ПФ сайтов, ваша история посещений и т.д. Хотя ничего не мешает отдавать инфу с поиска по товарам, картам и т.д. Там же тоже есть внутренний рейтинг.
А как думаете, для SEO-шников появится новая цель — выводить сайт в результаты SGE-поиска?
Ответил ниже.
И даже на простых вопросах нейросетка прокалывается, потому что обучается на соответствующем контенте. Поэтому лично я посмотрю, конечно, ответ от нейросетки, но только в качестве дополнения.
*
Кстати, пример (не SGE, а Блок знаний, но проблема фактологии есть и пока, видимо, будет)
Тут Фамилия и Имя совпадают. Причем с Кинопоиска берется некорректная информация. Но так как вполне возможно что он более рейтинговый источник, то берется он.
Проблема в том, что робот по-прежнему плохо работает с фактами. Меня как пользователя не волнует, откуда и по каким критериям отбирается информация. Меня интересует достоверный и релевантный ответ. На данном этапе нейросеть будет только сводить в один блок информацию из тех же источников (которые, как мы видим, нужно проверять).
*
На днях опять спросила у нейросетки, как сушить орехи. Опять получила неправильный ответ. Жду прогресса.
Если вы про GPT, то они не работают с фактами. Ни плохо, ни хорошо. Они работают с токенизированными атомарными лексическими единицами
Да. В логической цепочке я пропустила механику для наглядности.
Но возможность включить в цепочку ресурсы для выдачи более корректных данных существует. Так ChatGPT теперь может обращаться к Wolfram|Alpha и Wolfram Language.
С фактами пока она никак не работает. Источники берутся более популярные, рейтинговые и все.
Уже работает. На апрель 2023: "Для подключения Wolfram Alpha к ChatGPT необходимо установить плагин Wolfram внутри ChatGPT. Однако имейте в виду, что эта функция в настоящее время доступна только для пользователей ChatGPT Plus. После установки плагина Wolfram он позволит ChatGPT получать доступ к информации и функциям от Wolfram, разработчика сторонних приложений.
То есть пока за 20$ в месяц."
Я писал про другое. Что ошибки скорее всего будут пока что, так как это никакой не сложный ИИ, а просто генератор, языковая модель. Есть данные которые подают для обучения с которых и получается ответ. Кстати эти данные могут быть изначально неверные. Яндекс, например, асессоров (вроде специалистов по темам) набирает и делает ещё разметку, чтобы точно отвечать на вопросы. Хотя я видел тренеров вакансии.
Всё, что нужно знать:
"Я пишу ответы с помощью YaGPT 2 — новой нейросети Яндекса, подражая текстам в интернете. Поэтому результат может быть выдумкой: это не моё мнение и не мнение Яндекса. Я стараюсь быть этичной, так что на некоторые запросы не отвечаю. Не судите строго за ошибки — я только учусь."
Полагаю, "YaGPT 2 — новой нейросети Яндекса" можно заменить любым другим вариантом.
Про источники:
Выше пример блок и источники, а не генерация. А что касается ответов, то все логично. Что подали для обучения, то и получили. И на всякий случай все могут ошибаться. ЧатГПТ, Алиса тоже.
В чём принципиальная разница работы с информацией?
Что подали для обучения, то и получили.В этом-то и состоит большая проблема. Пока она решается хорошо (наверное) для каких-то узких (немассовых) тем. Но ведь мы о поиске и SEO.
все могут ошибатьсяНу извините. Зачем же мне ответчик, который берёт на себя функцию единственного ответчика и ставит свой ответ выше всех других, но в то же время не гарантирует правильность ответа (ну, хотя бы достоверность)?
Генерация же может быть дополнена и взято за основу не 2 источника, а гораздо больше? Вообщем сейчас часто для этого и используется она.
По поводу правильности и достоверности. Со временем будет собираться статистика и неверные ответы уйдут. Ну как уйдут, опять же они скорее всего будут верные для большинства и неверные для меньшинства пользователей.
Ресурсов у них не хватит. Интернет слишком распух даже для сканирования и расчета любых метрик за пределами tf-idf. Нет ресурсов. Поэтому максимум - будут брать топ-5 и пересказывать на языке "для школотрона".
Притом и пересказ там совсем дурной.
Нет, мы всё-таки говорим о разном. И идём по кругу. Хорошего дня.
Прочла всю дискуссию выше и к концу уже чувствовала себя как этот кот.
Ольга, вы имели в виду, что нейросети в основном не делают компиляцию из фактов и источников, а просто генерят шаблонные ответы? И в SGE+- так же?
Скрин "общения" с нейросеткой от Яндекса как бы отвечает.
Бывают и ситуации, когда нейросеть практически на один и тот же вопрос выдает совсем разные ответы, дело в формулировках. То есть тут уже как будто больше зависит от умения пользователя промты писать. Но я тестила на SMM-задачах, может в других сферах не так.
Умения вообще нужная штука. Везде есть нюансы, даже в уборке снега.
В общем, при нынешнем состоянии дел я буду искать информацию в разных источниках, не полагаясь на выданную выжимку. Ну, если только это не курс валюты или перевод языковой конструкции для быстрого понимания.
И вы уже говорите о диалоге с нейросеткой, а публикация о том, что пользователь просто кинул запрос в поиск; тут ПС должна сама попытаться понять, чего пользователь хочет.
Ну да, там корректировать результаты не получится. Как я поняла, есть только пара допкнопок и на этом все, перегенерить ответ не выйдет.
Разные ответы, но итоговый смысл один? Тестировал Алису ещё давно, первые версии, там можно было выбрать ответь по другому. Промпты важны конечно.
Не, не совсем. На вопрос "что такое бирдекель" GPT отвечал, что это какое-то казахское блюдо. А если пишешь "костер", то все ок.
Добавлю: вычислять, какой термин знает нейросеть, относительно недолго. Результат нормальный, если подбирается максимально близкий и понятный ей синоним. Разница должна быть минимальной, совсем уж для душнил. Типа тех, кто разделяет визитницы и картхолдеры.
Эммм... Вообще-то люди ищут разными терминами. А релевантность разных терминов одной сущности — штука историческая.
Даже в поиске не так все просто по данному запросу. Также нужно учитывать как часто такой запрос используют, насколько популярно то что вы ищите. И это кроме того какой объем информации был подан на обучение. Может пара документов, а не энциклопедии.
Если Google убьет поиск, переключимся на Яндекс. Если Яша сделает тоже, уйдем в паразитное SEO, если и там подрежут крылья, пойдём в соц сети. Отовсюду не выдавят ))
Или сразу просто в маркетинг.
Для меня до сих пор непонятна логика. В случае полного перехода на ии выдачу теряется заработок на гугл эдс. Они ж не дураки, терять деньги. Ну или будут продавать потом места в выдаче ИИ ( типа нативный ответ на вопрос с ссылочкой на сайт)