Накрутки поведенческих факторов: путь в топ или в бан?

Людям свойственно искать кнопку «Кайф». В сфере продвижения сайтов такой волшебной кнопкой стали поведенческие факторы. Давайте рассмотрим, что это такое, как с ними работать и могут ли они быть угрозой вашему сайту и бизнесу.

Накрутки поведенческих факторов: путь в топ или в бан?

Что такое поведенческие факторы

Под поведенческими факторами принято понимать сочетание показателей поведения пользователей сайта, благодаря которым поисковые системы могут делать выводы о качестве сайта.

Логика кажется простой: пользователя поисковой системы что-то привлекает в сниппете на выдаче, он переходит по ссылке, после чего выполняет ряд действий на сайте в соответствии со своими задачами. И если контент на сайте полностью перекрывает все потребности пользователя, на выдачу он уже не возвращается. Однако, как можно догадаться, в реальности всё совсем не просто, и в примитивную логику никак не укладывается. Почему? – Читайте ниже.

В каких поисковых системах работают поведенческие факторы

Как минимум, поведенческие факторы оценки сайта важны и в Яндекс, и в Гугл.

  • В Яндекс их вес составляет как минимум 20% всех характеристик, по которым поисковая система оценивает сайт. Как это работает? На первичном этапе ранжирования поисковик определяет список документов, которые в принципе соответствуют заданному запросу, после чего конкретный документ проверяется на соответствие большому количеству характеристик. Если документ соответствует им, поисковая система применяет алгоритм «многорукого бандита», на какое-то время выводя этот документ в топ для оценки пользовательских метрик. Нет данных по поведенческим факторам – нет позиций в топ-100. И уже после получения таких данных поисковая система производит переранжирование: какие-то новые документы вылетают из топа, какие-то остаются в зоне видимости.

  • Официально Гугл не использует термина «поведенческие факторы», говоря о факторах оценки сайтов. Чаще речь идёт именно о манипуляциях органическим CTR. Однако среди патентов Google можно найти патент, в котором описан алгоритм использования таких метрик. И более того: практика показывает, что накрутки поведенческих факторов положительно сказываются и на позициях сайта в Google. При желании можно посмотреть кейс Рэнда Фишкина от 2014 года, когда с помощью многочисленных заходов посетителей по заданному запросу удалось поднять сайт с 7 позиции на 1-ю всего за несколько часов.

Поскольку на 2021 год проблема накрутки ПФ в Гугл актуальной ещё не стала – рассматривать поведенческие метрики ниже мы будем только в рамках продвижения в Яндекс.

Типы поведенческих факторов

Все показатели поведенческих факторов ранжирования можно разделить на два основных типа:

  • Внешние: действия пользователя поисковой системы на поисковой выдаче до и после перехода на выбранный сайт;

  • Внутренние, в рамках сайта: всё, что происходит после перехода, включая возможный возврат на выдачу

Откуда поисковые системы получают данные о ПФ

Когда поисковые алгоритмы только начинали использовать поведенческие факторы ранжирования, основными источниками получения данных были:

  • Логи самой поисковой системы (SERP);

  • Пользовательские сессии по данным систем статистики и аналитики (Google Analytics, Яндекс-Метрика, посещаемость по Li.ru);

  • Браузерные тулбары.

Каждой группе источников соответствуют собственные метрики, используемые Матрикснет. Это намного сложнее, чем учёт простейших «отказов», «глубины просмотра», CTR из «Вебмастера» и т.п. Ни одна метрика не имеет самостоятельного значения, всё взаимосвязано, и всё постоянно меняется. Важность каждого параметра меняется динамически, и просчитать эту важность отдельно невозможно.

Поисковой системе уже необязательно получать конкретные точные данные по поведению пользователей у вас на сайте: он в любом случае соответствует какому-то шаблону, присваемому на базе оценки множества характеристик. Нейросети достаточно оценивать только поведение пользователей на выдаче.

Основной источник данных – сама поисковая выдача, благодаря которой алгоритм получает данные о CTR (кликабельности сниппета) и возврате на выдачу. Судя по всему, именно эти метрики и остались доминирующими по сей день.

Можно ли «спрятаться» от анализа ПФ

Некоторые хитрые вебмастера до сих пор пытаются скрыть от Яндекса данные по поведенческим характеристикам, отказываясь от установки той же «Метрики». Однако смысла это не имеет никакого: поисковые алгоритмы используют данные систем статистики для обучения и вычисления нормы на основе некоторой эталонной группы сайтов. И уже на базе полученной информации оценивают других.

Количество источников данных о поведенческих метриках со временем только увеличивается: вы знаете, что за вами следят браузеры, и уже не только с ПК, но и мобильных устройств. И Гугл, и Яндекс знают, что пользователи делают за пределами интернета, и эта информация также учитывается для оценки взаимодействия людей с сайтами, онлайн- и офлайн-бизнесом, а также оценки самих этих бизнесов. Система использует не только те данные, которые пользователи предоставили ей самостоятельно (имя, номер телефона и т.п.), а ещё и фингерпринты (их мы рассмотрим ниже) и прямые опросы пользователей.

Какие метрики учитываются

Как уже было отмечено выше, реальные поведенческие факторы намного сложнее, чем учёт «отказов» и времени на сайте.

Не надо пугаться роста «Отказов» в метрике или пытаться подольше удержать посетителя на сайте без чёткого понимания зачем это нужно. Это не просто бесполезно, в ряде случаев это действует только во вред.

Информацию о реально используемых поведенческих характеристиках сайта можно получить из следующих источников:

  • Косвенные: из Яндекс-Вебмастера и Метрики;

  • Прямые: опубликованные материалы от Яндекса и доступная документация по метрикам Матрикснета;

  • Эмпирические: если вы экспериментируете с кликовыми и посткликовыми факторами, у вас соберется собственный список работающих метрик.

В любом случае нужно понимать: важность каждого показателя – динамическая. Сегодня она важна, завтра – уже нет. Кроме того, ни одна метрика не имеет ценности сама по себе: работает сложный алгоритм, учитывающий сотни показателей.

Кликовые факторы

Один из важнейших на сегодня списков метрик. К таким метрикам относятся:

  • информация о наличии запроса в базе

  • кликабельность конкретного URL по этому запросу

  • общая кликабельность хоста вне зависимости от запроса

  • кликабельность URL в зависимости от региона

  • степень разнообразия запросов, по которым кликают конкретный URL

  • количество показов URL по запросу

и т.п.

Как видите, Яндекс учитывает далеко не всё, о чём упоминает потом в Вебмастере. И появляющиеся аномалии, по идее, выловить должен. Но, судя по всему, либо таких данных слишком мало, чтобы «накрутчики» были отфильтрованы алгоритмически, либо период пересчёта занимает слишком много времени, либо… на этом мысль останавливается.

Пост-поисковая статистика

Важность этих показателей на сегодняшний день, как показывает практика, значительно менее важна для ранжирования. Однако если вы собираетесь всерьёз анализировать поведение своих посетителей, оптимизировать конверсию и улучшать взаимодействие посетителей с сайтом – им стоит уделить самое пристальное внимание.

  • Среднее количество удовлетворенных шагов по сайту, то есть переходов по внутренней ссылке в заданный промежуток времени. Зависит от тематики: в какой-то тематики люди могут задерживаться на странице и переходят на пару других URL, в каких-то много «перелистывают», не задерживаясь нигде.

  • Время на документе по запросу

  • Время на домене по всем запросам на любых документах

  • Среднее время пребывания на документе по запросу

  • Отклонение от среднего времени пребывания на домене

и т.д.

Особое внимание уделяется отклонениям, и эти отклонения в 2013-м просчитывались от достаточно странных цифр. Например, по замыслу разработчиков, переход по внутренней ссылке подразумевается уже через 30 секунд. Перешёл раньше – отклонение, пренебречь. Перешёл позже – тоже самое, метрика в минус. Изменилось ли что-то со временем? – Наверняка. Мобильный интернет и новые типы контента без сомнения внесли свои корректировки.

Самый глобальный вывод из анализа таких метрик должен огорчать заказчиков накруток без бюджетов:

Не удастся получить внятные результаты накруткой пары запросов, работает только большой пул ключевиков, отобранных по особому алгоритму.

Почему поведенческие факторы так важны для Яндекса

Разгадка проста: прежде всего это Яндекс-Директ. Яндекс собирает информацию о пользователях, чтобы показывать им более релевантные рекламные объявления, а в соответствии с этим и персонализировать поисковую выдачу. Рекламодатель заинтересован получать лиды и продажи. Если «Директ» может их обеспечить – поток его клиентов будет только расти.

Вторая причина – это отказ от весомых когда-то текстовых и ссылочных факторов. Когда-то можно было обмануть систему с помощью спама по ключевым словам, а также с помощью усиления ссылочного профиля. Обе проблемы были решены с помощью «Баден Баден», «АГС» и «Минусинска». К тому моменту уже существовало суровое наказание за использование накруток поведенческих факторов, и проблема казалась решённой: такой метод к 2015 году резко потерял былую популярность.

Кроме того, несмотря на выраженные недочёты такого рода оценки сайта достоинств при правильной реализации у него намного больше. Чего стоит весь ссылочный профиль, возраст сайта и объёмные тексты, густо напичканные ключами, если посетитель заходит на страницу, немножко проматывает её и уходит искать дальше? Документ явно нерелевантен, а мы же говорим вебмастерам: «Делайте сайты полезными для людей».

Проблема в том, что Яндекс загнал себя в ловушку. Для того, чтобы оценить сайт, ему нужен трафик. А для трафика нужны позиции в топе. А чтобы попасть в топ – нужна оценка поведенческих факторов. А где ж их взять, если трафика нет? Остаются либо манипулятивные практики, либо… покупка всё той же рекламы из Яндекс-Директа. Это выгодно Яндексу, но не любому владельцу бизнеса, и иной раз проще и дешевле использовать запрещённый «допинг» в виде накруток.

Баны за накрутку поведенческих факторов

В первую волну банов за применение накруток поведенческих факторов пострадали пользователи нескольких основных систем накрутки. Вычислялись они легко и вне зависимости, была ли это накрутка ботами или живыми людьми. Выявить связь сайта с каким-то сервисом из списка, оценить выраженные аномалии CTR и рост «роботности» на сайт – дело совсем простое. Если в результате наказания ваш сайт вылетает из поиска на годик – задумаетесь не только вы.

И после показательных казней «нехороших» сайтов и фактической ликвидации массовых сервисов накрутки проблема казалась решенной. Уже в 2017-м в блоге Яндекс-Директа представители Яндекса уведомляли пользователей об увеличении значимости поведенческих факторов при ранжировании рекламы на поиске.

Нужно понимать, что тогда речь шла о показательной порке конкретных сервисов накрутки и их клиентов, а вовсе не о каком-то масштабном выявлении нарушений на уровне оценки трафика и его качества. Сервисы по накрутке никуда не делись и после, как не исчезли и их клиенты. Однако ни о каких санкциях речи уже не шло. Впрочем, подобную историю можно наблюдать и на примере других масштабных санкций Яндекса за манипуляции.

«Дыра» в алгоритме и шабаш накрутчиков в 2019

Итак, к 2018 году накрутка поведенческих была официально ликвидирована как опасная и неэффективная практика, Яндекс со спокойной душой увеличил значимость ПФ для оценки метрик, а пытливые умы и беспокойные ручонки оптимизаторов продолжали испытывать систему на прочность. И конечно же, уязвимость алгоритма была быстро найдена. «Дырка» была настолько простой и доступной, что большинство оптимизаторов, узнав о её существовании, просто не верили и даже не хотели протестировать. Благодаря смартфону, режиму «инкогнито» и периодической смене IP можно было втупую и вручную за пару дней загнать в топ практически что угодно, если URL был вообще в зоне видимости поисковика. А уж если у вас были технические возможности, то благодаря накруткам можно было загонять в топы даже мусорные сайты.

К середине 2019 расплодилось огромное количество «агентств», которые занимались только этим, и строили на накрутках весь свой бизнес. Схема была проста: найти сайт в топ-20 или даже в топ-30, написать письмо владельцам с заманчивым предложением, и вот он профит: один запрос – 15 тысяч рублей, и это всего несколько машинных часов. Сервер молотит, позиции растут, деньги капают.

Образец письма, которое одна широко известная в узких кругах веб-студия рассылала потенциальным клиентам. Студия закрыта, но интернет всё помнит.
Образец письма, которое одна широко известная в узких кругах веб-студия рассылала потенциальным клиентам. Студия закрыта, но интернет всё помнит.

Конечно же, такое положение не устраивало не только владельцев онлайн-бизнесов, но и «честных» оптимизаторов. Почему я пишу «честных» в кавычках? – Потому что в данном случае значительный процент недовольных огорчал лишь факт упущенной выгоды или падение спроса на другие, не менее манипуляторские услуги. Скажем, продажу ссылок или возможность эксплуатации хорошо прокачанного бренда.

Пока «накрутчики» набивали карманы, многочисленные оптимизаторы были озабочены единственным вопросом: а что там Яндекс, и когда прикроют лавочку? И как яндексоиды справятся с проблемой? Может, снизят, наконец, приоритетность ПФ?

Развязка, как казалось, наступила в конце февраля 2020. «Дырка» была ликвидирована, и от десятка визитов по запросу никакого результата уже не было. Параллельно с этим повторилась ситуация с санкциями против клиентов вполне определенных сервисов, и многие «веб-студии», зарабатывающие исключительно накрутками, были закрыты.

Накрутки в 2020-2021

Однако ближайшие месяцы показали, что для отрасли изменений к лучшему не появилось: напротив, Яндекс заболел всерьёз и надолго. Знакомый всем владельцам сайтов «шторм» продолжается до сих пор. А количество сайтов, продвигающихся накрутками, только выросло.

Судя по всему, в Яндекс решили справиться с проблемой предельно просто: масштабированием метрик и ремаппингом. Если год назад вопрос с ростом по позициям решался десятком визитов из зоны видимости, то теперь – тысячей, и уже по совсем другим принципам.

Борьба с накрутками привела лишь к значительному усложнению проблем абсолютно для всех:

  • SEO-специалисты столкнулись с дилеммой: хочешь быть эффективным – «крути» сам или уйди с рынка. И это уже не говоря об общем усложнении работ с семантикой, когда более половины ключевиков из систем статистики оказываются накрученными «пустышками»;

  • Сайты, продвигающиеся исключительно «белыми» методами, теряют позиции и трафик: через них регулярно пробегают табуны ботов, буквально затаптывая важные кликовые метрики. Сайты «накрутчиков» растут, «честные» сайты падают;

  • Те, кто зарабатывает накрутками, но не понимает, как именно работают алгоритмы, не могут показать никаких результатов (и это, пожалуй, единственный хороший результат);

  • Яндекс получает тонны негатива: сильно «перегретый» Директ, массовый клик-фрод, накрученная поисковая выдача. «Все уходим в Гугл!» – этот клич можно встретить на любой площадке, посвященной интернет-маркетингу.

Едва ли в течение 2021 года Яндекс найдёт какое-то решение проблемы с манипуляциями ПФ, если не решит в принципе отказаться от них в формуле ранжирования. На сегодняшний день избранная им тактика выглядит как обычная попытка игнорирования.

В чём проблема с накрутками

Нужно понимать, что накрутка поведенческих факторов, она же – имитация действий реальных пользователей, в Яндекс наказывается очень сурово (что показывает важность ПФ для алгоритма): бан на уровне хоста от 8 месяцев. То есть был ваш сайт в поиске – и вот его вообще нету и не будет, пока срок не отмотаете. Для серьёзного бизнеса с хорошо прокачанным брендовым доменом это колоссальные убытки, равнозначные закрытию бизнеса. А в некоторых сегментах это не значит вообще ничего: профит может быть настолько велик, что выгоднее плюнуть на «убитый» домен и просто переехать на новый.

Блеск и нищета
Блеск и нищета

Основная же проблема накрученных позиций заключается вот в чём: «накликав» бешеные CTR своему сайту, вебмастера и владельцы сайтов получали позиции в топе, из топа начинал идти органический трафик. А если сайт не соответствовал ожиданиям пользователей и держался только на накрутках – поведенческие метрики портились и сайт начинал выпадать. А значит, нужно снова включать «машинку» и накручивать ещё сильнее, и платить ещё большие деньги, чтобы не терять позиции.

Но место в топе и трафик на непроработанный сайт в любом случае не приносят продаж: реального пользователя не обманешь.

Как выявить накрутку чужого сайта

Прежде всего: правильную накрутку поведенческих факторов определить нельзя – даже если у вас есть доступ к Метрике с её «Вебвизором», Яндекс-Вебмастеру с информацией по кликам и показам. Просто потому, что такая накрутка подразумевает строгое соблюдение последовательности проработки ключевиков покластерно, учитывает частотность и хоть как-то ориентируется на CTR (общий и частный). Не может у сайта на 80-й позиции быть CTR в 50%, такой кликабельности нет даже с первой позиции в топе.

Но если накруткой занимаются рисковые парни без царя в голове и жалости к сайту – то вычислить манипуляции можно даже с использованием внешних средств мониторинга.

Нужно понимать, что сам по себе никакой сайт расти не будет. И даже поисковая оптимизация редко даёт стремительный рост сайта в поиске, тем более – для домена-новорега. Поэтому если вы заметили появление на своём рынке нового игрока, который резво обходит на выдаче всех, и это не агрегатор – нужно к нему присмотреться.

Простейший способ понять, что сайт продвигается накрутками – это посмотреть видимость этого сайта в Wordstat по брендовым запросам (доменному имени). Если вы видите резкий всплеск или уверенный рост таких запросов – это накрутка. Когда на рынке появляется новый громкий проект, да ещё большого масштаба – им будут интересоваться. Если же речь о никому неизвестной компании, которую вдруг начали спрашивать по сотне раз за день – это они, наши бесхитростные друзья-накрутчики.

Рост видимости сайта в результате накруток домена
Рост видимости сайта в результате накруток домена
Накрутки домена по вордстату
Накрутки домена по вордстату

Как выявить накрутку на своем сайте

Как и в случае с накрутками чужих сайтов, вычислить негативную накрутку на свой сайт можно не всегда. На что обращать внимание?

  • Аномальный рост трафика из «паленых» подсетей. Настоящей легендой рунета за 2020-й стали прокси Metropolitan branch of OJSC MegaFon.

  • В ряде случаев можно отловить сервисы накрутки по рефереру, особенно это касается тех систем, которые используют не ботов, а живых пользователей. Система отправляет кликера на выдачу, из выдачи – на сайт, после чего пытается вернуть его обратно на сервис.

  • Рост трафика из нецелевых регионов. Накрутчики используют прокси-сервера, и не всегда они относятся к заданному региону.

  • Резкие изменения в типе устройств, с которых заходят на сайт. Например, на ваш сайт стабильно и традиционно идут только с ПК – и вдруг вы видите аномальный рост со смартфонов.

  • Рост трафика в принципе – если вы ничего не меняли на сайте длительное время, а сайт вдруг начал необъяснимо расти.

Любые аномальные всплески трафика, продолжающиеся длительное время – повод заподозрить недоброе и потратить некоторое время на анализ ситуации.

Как противодействовать накрутчикам

В 2020-м году многие владельцы сайтов заметили массовые нашествия ботов на свои сайты. Всплески посещений отмечаются из поиска, по рекламным объявлениям, из соцсетей, а также прямые заходы. Трафик такого типа преследует две основные цели:

  • «Нагуливание» профилей (фингерпринтов) для дальнейшего использования в накрутках или на продажу;

  • Собственно накрутка: на сайт заходят из поиска только для того, чтобы вернуться на выдачу и найти продвигаемый сайт.

Что такое фингерпринты

Фингерпринт, как можно догадаться по названию, это цифровые «отпечатки пальцев» пользователя. Вы используете одни и те же машины с неизменяемыми конфигурациями «железа», TCP/IP, операционные системы, браузеры, браузерные плагины и т.п. Теоретически мобильные устройства должны быть более защищены от слежки такого рода, но фактически для этого нужно приложить дополнительные усилия – да и кому это нужно? Мало кто из чистой паранойи будет использовать виртуальные машины, менять хосты, прокси и т.п.

Поисковые системы используют фингерпринты для идентификации пользователей и отличия бота от человека. Живой человек не может не оставлять следов: он пользуется одними и теми же устройствами, программами и приложениями, у него есть история поиска, по которой можно понять его интересы. Даже если не использовать куки – фингерпринты многое расскажут о вас. Подразумевается, что робот так не умеет, если, конечно, его разработчики об этом не позаботятся.

Для накруток в малых объёмах достаточно было использовать смену IP и режим «Инкогнито». Однако в какой-то момент Яндекс перестал учитывать такие визиты в ранжировании, и потребность ботоводов в фингерпринтах резко возросла. Их «нагуливают» как для собственной ботофермы, так и на продажу.

Если вы видите аномальный рост заходов из соцсетей, по прямым заходам и даже их органики – это, вероятно, те самые боты, прокачивающие свою человекообразность, список интересов, историю поиска. Отличить их от реальных людей поисковая система не в состоянии, и метрики роботности остаются на нуле.

Способы защиты

Если у сайта малый трафик и данных по поведенческим метрикам сайта у Яндекса немного, либо эти метрики далеки от идеальных – сайт под угрозой. В течение достаточно непродолжительного времени сайт может потерять свои позиции вплоть до полного вылета за пределы топ-100. Касается это только Яндекс, Гугл на такое не реагирует никак.

Какие способы защиты были протестированы:

  • Выявление подсетей, из которых идут боты, и бан или перенаправление их на субдомен. Способ нерабочий: посткликовые метрики в таком случае повредить нельзя, но от возврата на выдачу такая защита не защищает.

  • Использование сервисов антифрода. Тот же эффект (вернее, отсутствие положительного эффекта).

  • Использование CloudFlare и иных подобных сервисов, теоретически способных отсеять ботов. Ботов такие сервисы могут на сайт не пустить, но от скликивания не спасут. Зато данные в Метрике будут «чистыми».

  • Письма «платонам». Отвечают всем, обещают отсутствие негативных последствий. Как показывает практика – обманывают. Но попытаться в любом случае стоит.

По собственному опыту могу сказать, что основной работающий способ – это привлечение трафика из поиска с хорошими поведенческими показателями на сайт. Сайт с высоким трафиком с хорошими показателями из органики никакие боты не повалят. Но надо понимать, что поддерживать показатели с помощью дополнительного трафика можно только с помощью привлечения больших бюджетов на контекстную рекламу, на хорошо оптимизированный сайт высокого качества, либо с использованием всё тех же накруток. Либо ждать от Яндекса решения проблемы.

Ещё один способ, который не защитит, но позволит минимизировать ущерб (если он уже есть) – попытаться обнулить поведенческие метрики на заданных URL либо вообще на домен. Для ликвидации негативных последствий подокументно стоит немножко отредактировать контент страницы и изменить её URL, не настраивая никаких редиректов. Редирект подклеит вам весь негатив со старого URL. Если у вас при этом хорошие позиции в Google – создайте для Яндекса новую страничку, старую – деиндексируйте. Новую же закройте от Google. Это достаточно «кривой» способ, прежде всего по техническим причинам, но в ряде случаев показавший себя хорошо.

Нужны ли накрутки вашему сайту

Вот моё персональное мнение с соблюдением всех условностей и политеса, свойственного теме накруток в SEO-среде.

Использование накруток поведенческих факторов можно сравнить с применением допинга для спортсменов. Да, все профессиональные спортсмены во всём мире так или иначе интенсивно едят какую-то «химию», чтобы показывать результаты. И да, они делают это так, чтобы их не поймали – и не дисквалифицировали. И вот на беговую дорожку с такими машинами для бега выходит обычный человек – дряблые мышцы, пузико, плохая форма, но волшебную пилюльку ему тоже дали. Старт – и он держит темп первые 30 метров. А потом падает, потому что отказал «мотор» или порвалась связка.

  • Я видел сайты, которые быстро взлетели благодаря накруткам – и быстро упали, даже без всякой дисквалификации.

  • Я вижу сайты, которые старательно накручивают – и это никак не сказывается на позициях, видимости, и тем более – конверсиях.

  • И я вижу сайты, которые не накручивают – а они растут.

«Волшебные пилюли» могут быть уместны, если уже сделаны все возможные меры по оптимизации, и исчерпаны все средства. Либо приходится соревноваться с такими же оптимизированными сайтами, сидящими на допинге. Либо речь идёт о решении вполне конкретных задач, связанных с прохождением некоторого порога или набора нужных характеристик.

Количество в SEO не переходит в качество, а сильнодействующий яд может стать лекарством только в руках врача.

9595
143 комментария

Ой, Я, кажется, наступил на хвост какому-то продавцу накруток.
Вот незадача.

19
Ответить

Мы его переплюсуем.

3
Ответить

надо этому выскочке вправить мозг

Ответить

Спасибо за статью. Подскажите пожалуйста, я правильно понимаю, что если на сайт валит прямой трафик, то самое правильное это включить CloudFlare? И чтобы всё работало через SSL то надо включать платный тариф за 200 уе?

Ответить

Годно. Не согласен только с тезисом, что Яндекс это поисковик. Это же маркетплэйс, лет 5 как уже...
У него в топе либо накрученные ПФ либо какие-то лендосы вчера сделанные, а качественные сайты отправлены в ТОП-50-100, смысл в этом либо в полной потери логики машины ранжирования, либо в принуждении качественных сайтов (за ними обычно же стоит крупный бизнес) идти в контекст.
Яша все эти обвинения игнорирует. Впрочем как и другие про дикую помойку Дзена или скликивания в Директе

8
Ответить

Я бы сформулировал иначе: Яндекс - это рекламная система с возможностями поиска. Именно в плане информационного поиска он даже в чём-то обходит Гугл, как минимум - в плане актуальности информации любого плана.
Но вот его истерическая логика явно требует ремонта или хотя бы заплаток.

7
Ответить

Не нагоняйте уж так сильно на Яндекс. Качественный контент иногда пробивается в топ сам по себе. 4 месяца назад качественно доработал 20 старых статей и большая часть из них, и по ныне в топ 1-3 и систематические ботовские атаки не выбивают эти страницы из топа. Ради интереса на одну из этих статей поставил анкорную ссылку с морды другого своего сайта (правда ссылка была со 100% тематическим вхождением), так эта страница стабильно по ВЧ в топ 1 Яндекса, даже Вики позади. Но такие ссылки это бриллиант, который просто нереально поставить на поток.

Но скажу честно, что на доработку каждой статьи уходило порядка 9-12 часов, но результат стоил того. Всё никак не могу себя заставить другие статьи начать дорабатывать. Что самое интересное доработка дала рост в Яндексе, но не в Гугле, который хочет, скорее всего под доработку и качественные ссылки. Делаю вывод, что качество контента в ранжировании для Яндекса важнее, чем для Гугла и тут ПФ имеют второстепенное значение, как минимум в моей тематике.

После доработки в топе Яндекса эти страницы начали появляться примерно через 10-14 дней, и это при том, что тематика сайта одна из самых конкурентных в интернете, а возможно и самая конкурентная.

Так, что качество рулит, так было, есть и будет.

Ответить