{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Секрет May 2020 Core Update: как повысить ранжирование сайтов YMYL тематики?

Можно ли вывести сайт из под фильтров E-A-T после May 2020 Core Update? Сегодня я расскажу как с помощью простых действий удалось увеличить органический трафик на примере сайта медицинской тематики.

С чего всё начиналось?

Еще в 2015 году поисковая сеть Google впервые ввела понятие E-A-T факторов. В последующем произошла целая серия «медицинских обновлений» — весной 2019, в июне 2019, в сентябре 2019, в январе 2020 и последнее в мае 2020 года.

Начнем с понятие E-A-T факторов. E-A-T факторы дословно расшифровываются как «Expertise, Authoritativeness, Trustworthiness», что переводится как «экспертность, авторитетность, достоверность». Это набор характеристик, которыми должен обладать контент сайта и сайт в целом. E-A-T особенно важен для сайтов, которые попадают под YMYL – «Your Money or Your Life!», переводя на русский «кошелек или жизнь!».

Под такие сайты попадают следующие тематики:

  • Новостные ресурсы, освещающие важные текущие события;

  • Здоровье и безопасность;

  • Финансы;

  • Сайты органов власти и гражданские вопросы;

  • Юриспруденция;

  • Покупка товаров.

Поисковая система Google оценивает качество веб-страниц как алгоритмически, так и с помощью асессоров — обученных определенной методике людей, определяющих качество сайта.

Зачем это нужно поисковикам? Они не хотят выдавать в выдаче сайты, на которых пользователь сможет почерпнуть недостоверную информацию, например, ошибочную инструкцию к лекарству или легкий мошеннический способ заработать деньги.

Обучение алгоритма ранжирования происходит на основе оценок, которые асессоры используют при анализе страниц сайта. Если асессоры Google при анализе сайта находят YMYL страницу, они будут оценивать её, руководствуясь более строгими критериями, чем для обычных сайтов.

Если ваш сайт принадлежит к группе YMYL сайтов или на отдельных страницах сайта есть информация, которую можно посчитать YMYL, вам предстоит на порядок больше работы, чтобы ранжироваться в ТОПе выдачи и «понравиться» асессорам и Google в целом.

May 2020 Core Update

Теперь поговорим о May 2020 Core Update и о способах, с помощью которых можно повысить ранжирование сайтов.

Поисковая система Google никогда не раскрывает какие изменения произошли в алгоритме поискового механизма. Для проведения анализа используются данные просевших проектов, исходя из которых можно сказать какие действия стоит предпринимать для повышения ранжирования сайтов или отдельных страниц с помощью E-A-T факторов, а какие нет.

Так или иначе все опять сводится к EAT критериям. Только May 2020 Core Update задел сайты не только YMYL, а уже многих тематик. Можно наблюдать снижение трафика в категориях путешествия, товары для животных, интернет-магазины, развлекательная offline тематика.

Как применить на практике?

На примере нашего клиента – портала медицинской тематики, покажем как мы пережили новый update и повысили трафик, идущий на проект.

1. На сайте доработано пользовательское соглашение с посетителями проекта.

2. Дополнена страница “Контакты” и ссылка размещена в подвале сайта.

3. Отражена возрастная категория, для которой был создан данный проект.

3. В подвал портала добавлена фраза:

“Информация, предоставленная на сайте, не может быть использована для постановки диагноза, назначения лечения и не заменяет прием врача”

4. Так же схожая фраза использована после каждой статьи, которая опубликована на портале:

“Данная статья размещена в познавательных целях и не является научным материалом или профессиональным медицинским советом. За диагностикой и лечением, пожалуйста, обращайтесь к врачам.”

5. Реализованы страницы авторов, чьи статьи опубликованы на портале. На данных страницах пользователь может познакомиться с компетенциями авторов.

7. Внедрена информация, о том откуда веб-ресурс берет источники финансирования: часть из средств вкладывают частные инвесторы, другую команда портала собирает через пожертвования неравнодушных людей.

Так же контент на портале тщательно проверяется и качественно оформляется перед публикацией. Контент медицинской тематики пишут только практикующие врачи и специалисты своего дела. Они отвечают на вопросы посетителей и показывают глубокое знание исследуемого предмета.

Вместо вывода

May 2020 Core Update направлен на улучшение E-A-T факторов, основной функцией которых является проверка достоверности представленной на сайте информации и ее авторитетности. Решение данных факторов работает вкупе с "классическими" SEO-работами по проекту.

А какой опыт работы с May 2020 Core Update у вас?

0
1 комментарий
Истринский Мастер

Всем доброго дня! Конечно немного "другая тематика", но точка зрения имеет право на существование=)
После майского изменения основного алгоритма и последующих изменений прошло более двух месяцев. Решили посмотреть детального логи log -файлы "статистику после апдейта" с веб сервера для сайтов:
https://istratehnik.ru
https://istramaster.ru
Немного удивила такая статистика и дала повод...Все может зависеть от тематики и локализации!
Посмотрели какие Боты и как часто заходили на сайт. Видим, что с сайта "не вылазят" боты яндекса и mail.ru_bot, а также "прописались" другие явные и не явные роботы, "парсеры" и пр.пауки...
После "майского адейта" Googlebot уступает другим роботам и программам в частоте посещения сайтов?

Получается сейчас весь контент сайтов отдан на "откуп" яндексу, mail.ru, и другим ребятам...Предполагаем, что такое не равномерное посещения сайтов "Роботами" создает определенные риски для поддержания актуальности и сохранения "оригинальности" контента для его ранжирования алгоритмами Google и для последующей поисковой выдачи. Это также влияет на трафик и позиции в поиске...

Хорошо, что можно предпринять, какие выводы и какую выбрать тактику? Пока напрашивается решение:
1. Продолжать размещать внешние ссылки, чтобы googlebot чаще переходил на сайт.
2. Использовать Search console для ручной отправки Googlebot на сайт после изменений.
3. Попробовать "тонкую аккуратную" настройку веб сервера, чтобы уровнять частоту посещений Ботами сайта..."Уровнять шансы и возможности" - Ну чтобы Googlebot не проигрывал другим Ботам и "парсерам" =).

Так хотя бы можно попытаться сохранить наработанные "очки", трафик и позиции. Все зависит от сферы и тематики, смотреть и делать по статистике очень аккуратно...

Ответить
Развернуть ветку
-2 комментариев
Раскрывать всегда