Особенности и глюки YATI

Новый алгоритм YATI был запущен Яндекс в 2020 году. По- другому, он еще называется «архитектурой нейросетей-трансформеров». И основная цель алгоритма повысить качество информации на сайте.

О влиянии YATI на поисковую оптимизацию, глюках и особенностях алгоритма расскажет основатель и руководитель агентства СЕО Бутик Иван Соколов.

Особенности Яндекс YATI

Не так давно Яндекс выпустил новый алгоритм YATI. Я и мои коллеги уже успели оценить преимуществам и недостатки этого трансформера и готовы поделиться информацией, как адаптировать сайт под YATI и стоит ли это делать.

Основная цель алгоритма - дать ответ на запрос любой сложности. Предыдущие версии Палех и Королев также находили ответы на запросы, но они были не всегда полезными. А теперь рассмотрим с чем это связано?

Ранее алгоритмы Яндекс прогнозировали клик пользователя, в то время как YATI берет за эталон оценку людей-экспертов. То есть YATI намного лучше предшественников работает со смыслами запроса, глубже анализирует суть текста. Это значит, что теперь Яндекс точнее понимает, какая информация отвечает на вопрос пользователя, а какая нет.

Могу выделить 3 главные особенности обновленного поиска:

  • оценка не только заголовков и подзаголовков текста, но и его отдельных фрагментов и структуры;
  • распознавание значимых по смыслу слов, которые могут быть особенно полезны пользователям;
  • определение смысловой нагрузки в тексте: взаимосвязи между словами, порядок слов и т.д.

Простой принцип работы YATI покажу на примере, когда нет точного ключевого вхождения

Особенности и глюки YATI

Яндекс понял, какой фильм ищет пользователь только по описанию момента в нем. Конечно подобная «фишка» срабатывает не в 100% случаев, но есть тенденция к пониманию смысла фразы.

Глюки YATI

Еще расскажу, какие у YATI есть официально задокументированные глюки. То есть те, что были подтверждены тех.поддержкой Яндекс.

Глюк 1 – Аномальная болтанка

В августе 2020 года некоторые наши «белые» сайты», провалились на -10,-20 позиций причем по всем запросам, а через 2-4 недели вновь восстановились. И вначале было сложно отследить, связано ли это с внесенными изменениями или глюком YATI. Но обратили внимание, что и другие «белые « сайта просели по позициям и поэтому не стали предпринимать никаких действий.

Глюк 2- Индексация закрытых страниц

Пример такого глюка – попадание в индекс страниц, которые «жестко» закрыты в robots. Из ответа тех. поддержки стало ясно, что Яндекс изначально не индексирует страницы, которые кажутся роботу некачественными (не проходит метрику качества). Но спустя время робот может снять с них фильтр маловостребованной страницы и запустить в индекс без проверки проведенных на сайте изменений.

Глюк 3- Глюки Бадена

С выходом YATI автоматически обновился антиспам. И много примеров у коллег, когда сайт за агрессивный переспам на одной странице полностью попадал под санкции Баден. К сожалению, «белыми методами» выйти из Баден в таком случае не получится.

В данной ситуации может помочь только переклейка домена, то есть изменение url страницы.

Глюк 4 – Неадекватная выдача

Иногда в Яндекс резко меняется выдача, например с коммерческой на инфо и обратно. Этот момент необходимо учитывать при текстовом анализе конкурентов и их выгрузке. Советую делать несколько проверок: утром, вечером и на следующий день.

Глюк 5- НКС страниц нового сайт

В течение первых 1,5-2 месяцев у молодого сайта в любом случае будут НКС (низкокачественные страницы). Эти страницы будут постоянно меняться – в НКС может сразу улететь сотни страниц, и к ним постепенно будут добавляться новые. Сео оптимизаторы зачастую ошибочно начинают вносить правки и дорабатывать контент. Но считаю, что адекватную картину в любом случае не увидеть, пока сайту не исполнится 1,5-2 месяца и ситуация не стабилизируется.

Заключение

Новый алгоритм улучшил качество машинного поиска. И многие пользователи уже отметили прогресс искусственного интеллекта в сторону естественности – робот может оценивать качество текста также, как люди. При этом классические методы оптимизации никуда не исчезли, потому что алгоритм Яндекс не изменился, он лишь усовершенствовался. Все что имело значение ранее (ключевые фразы, структурированность материала, проработка title и description, использование LSI-фраз), осталось актуальным и сейчас.

Но с другой стороны, сильно повысились требования к качеству контента. Поэтому нужно и полезно вносить смысловые правки и изменения в имеющиеся на страницах тексты, обновлять и дорабатывать статьи с привлечением авторов-экспертов.

Начать дискуссию