{"id":14278,"url":"\/distributions\/14278\/click?bit=1&hash=7bc8e2136891e57274bce79f3bfab82773b2810563794a524a98ce6dacee7a9c","title":"\u041f\u044f\u0442\u044c \u043a\u0435\u0439\u0441\u043e\u0432 \u0443\u0441\u043f\u0435\u0448\u043d\u043e\u0433\u043e \u0432\u043d\u0435\u0434\u0440\u0435\u043d\u0438\u044f \u0418\u0418 ","buttonText":"","imageUuid":""}

Накрутки поведенческих факторов: путь в топ или в бан?

Людям свойственно искать кнопку «Кайф». В сфере продвижения сайтов такой волшебной кнопкой стали поведенческие факторы. Давайте рассмотрим, что это такое, как с ними работать и могут ли они быть угрозой вашему сайту и бизнесу.

Что такое поведенческие факторы

Под поведенческими факторами принято понимать сочетание показателей поведения пользователей сайта, благодаря которым поисковые системы могут делать выводы о качестве сайта.

Логика кажется простой: пользователя поисковой системы что-то привлекает в сниппете на выдаче, он переходит по ссылке, после чего выполняет ряд действий на сайте в соответствии со своими задачами. И если контент на сайте полностью перекрывает все потребности пользователя, на выдачу он уже не возвращается. Однако, как можно догадаться, в реальности всё совсем не просто, и в примитивную логику никак не укладывается. Почему? – Читайте ниже.

В каких поисковых системах работают поведенческие факторы

Как минимум, поведенческие факторы оценки сайта важны и в Яндекс, и в Гугл.

  • В Яндекс их вес составляет как минимум 20% всех характеристик, по которым поисковая система оценивает сайт. Как это работает? На первичном этапе ранжирования поисковик определяет список документов, которые в принципе соответствуют заданному запросу, после чего конкретный документ проверяется на соответствие большому количеству характеристик. Если документ соответствует им, поисковая система применяет алгоритм «многорукого бандита», на какое-то время выводя этот документ в топ для оценки пользовательских метрик. Нет данных по поведенческим факторам – нет позиций в топ-100. И уже после получения таких данных поисковая система производит переранжирование: какие-то новые документы вылетают из топа, какие-то остаются в зоне видимости.

  • Официально Гугл не использует термина «поведенческие факторы», говоря о факторах оценки сайтов. Чаще речь идёт именно о манипуляциях органическим CTR. Однако среди патентов Google можно найти патент, в котором описан алгоритм использования таких метрик. И более того: практика показывает, что накрутки поведенческих факторов положительно сказываются и на позициях сайта в Google. При желании можно посмотреть кейс Рэнда Фишкина от 2014 года, когда с помощью многочисленных заходов посетителей по заданному запросу удалось поднять сайт с 7 позиции на 1-ю всего за несколько часов.

Поскольку на 2021 год проблема накрутки ПФ в Гугл актуальной ещё не стала – рассматривать поведенческие метрики ниже мы будем только в рамках продвижения в Яндекс.

Типы поведенческих факторов

Все показатели поведенческих факторов ранжирования можно разделить на два основных типа:

  • Внешние: действия пользователя поисковой системы на поисковой выдаче до и после перехода на выбранный сайт;

  • Внутренние, в рамках сайта: всё, что происходит после перехода, включая возможный возврат на выдачу

Откуда поисковые системы получают данные о ПФ

Когда поисковые алгоритмы только начинали использовать поведенческие факторы ранжирования, основными источниками получения данных были:

  • Логи самой поисковой системы (SERP);

  • Пользовательские сессии по данным систем статистики и аналитики (Google Analytics, Яндекс-Метрика, посещаемость по Li.ru);

  • Браузерные тулбары.

Каждой группе источников соответствуют собственные метрики, используемые Матрикснет. Это намного сложнее, чем учёт простейших «отказов», «глубины просмотра», CTR из «Вебмастера» и т.п. Ни одна метрика не имеет самостоятельного значения, всё взаимосвязано, и всё постоянно меняется. Важность каждого параметра меняется динамически, и просчитать эту важность отдельно невозможно.

Поисковой системе уже необязательно получать конкретные точные данные по поведению пользователей у вас на сайте: он в любом случае соответствует какому-то шаблону, присваемому на базе оценки множества характеристик. Нейросети достаточно оценивать только поведение пользователей на выдаче.

Основной источник данных – сама поисковая выдача, благодаря которой алгоритм получает данные о CTR (кликабельности сниппета) и возврате на выдачу. Судя по всему, именно эти метрики и остались доминирующими по сей день.

Можно ли «спрятаться» от анализа ПФ

Некоторые хитрые вебмастера до сих пор пытаются скрыть от Яндекса данные по поведенческим характеристикам, отказываясь от установки той же «Метрики». Однако смысла это не имеет никакого: поисковые алгоритмы используют данные систем статистики для обучения и вычисления нормы на основе некоторой эталонной группы сайтов. И уже на базе полученной информации оценивают других.

Количество источников данных о поведенческих метриках со временем только увеличивается: вы знаете, что за вами следят браузеры, и уже не только с ПК, но и мобильных устройств. И Гугл, и Яндекс знают, что пользователи делают за пределами интернета, и эта информация также учитывается для оценки взаимодействия людей с сайтами, онлайн- и офлайн-бизнесом, а также оценки самих этих бизнесов. Система использует не только те данные, которые пользователи предоставили ей самостоятельно (имя, номер телефона и т.п.), а ещё и фингерпринты (их мы рассмотрим ниже) и прямые опросы пользователей.

Какие метрики учитываются

Как уже было отмечено выше, реальные поведенческие факторы намного сложнее, чем учёт «отказов» и времени на сайте.

Не надо пугаться роста «Отказов» в метрике или пытаться подольше удержать посетителя на сайте без чёткого понимания зачем это нужно. Это не просто бесполезно, в ряде случаев это действует только во вред.

Информацию о реально используемых поведенческих характеристиках сайта можно получить из следующих источников:

  • Косвенные: из Яндекс-Вебмастера и Метрики;

  • Прямые: опубликованные материалы от Яндекса и доступная документация по метрикам Матрикснета;

  • Эмпирические: если вы экспериментируете с кликовыми и посткликовыми факторами, у вас соберется собственный список работающих метрик.

В любом случае нужно понимать: важность каждого показателя – динамическая. Сегодня она важна, завтра – уже нет. Кроме того, ни одна метрика не имеет ценности сама по себе: работает сложный алгоритм, учитывающий сотни показателей.

Кликовые факторы

Один из важнейших на сегодня списков метрик. К таким метрикам относятся:

  • информация о наличии запроса в базе

  • кликабельность конкретного URL по этому запросу

  • общая кликабельность хоста вне зависимости от запроса

  • кликабельность URL в зависимости от региона

  • степень разнообразия запросов, по которым кликают конкретный URL

  • количество показов URL по запросу

и т.п.

Как видите, Яндекс учитывает далеко не всё, о чём упоминает потом в Вебмастере. И появляющиеся аномалии, по идее, выловить должен. Но, судя по всему, либо таких данных слишком мало, чтобы «накрутчики» были отфильтрованы алгоритмически, либо период пересчёта занимает слишком много времени, либо… на этом мысль останавливается.

Пост-поисковая статистика

Важность этих показателей на сегодняшний день, как показывает практика, значительно менее важна для ранжирования. Однако если вы собираетесь всерьёз анализировать поведение своих посетителей, оптимизировать конверсию и улучшать взаимодействие посетителей с сайтом – им стоит уделить самое пристальное внимание.

  • Среднее количество удовлетворенных шагов по сайту, то есть переходов по внутренней ссылке в заданный промежуток времени. Зависит от тематики: в какой-то тематики люди могут задерживаться на странице и переходят на пару других URL, в каких-то много «перелистывают», не задерживаясь нигде.

  • Время на документе по запросу

  • Время на домене по всем запросам на любых документах

  • Среднее время пребывания на документе по запросу

  • Отклонение от среднего времени пребывания на домене

и т.д.

Особое внимание уделяется отклонениям, и эти отклонения в 2013-м просчитывались от достаточно странных цифр. Например, по замыслу разработчиков, переход по внутренней ссылке подразумевается уже через 30 секунд. Перешёл раньше – отклонение, пренебречь. Перешёл позже – тоже самое, метрика в минус. Изменилось ли что-то со временем? – Наверняка. Мобильный интернет и новые типы контента без сомнения внесли свои корректировки.

Самый глобальный вывод из анализа таких метрик должен огорчать заказчиков накруток без бюджетов:

Не удастся получить внятные результаты накруткой пары запросов, работает только большой пул ключевиков, отобранных по особому алгоритму.

Почему поведенческие факторы так важны для Яндекса

Разгадка проста: прежде всего это Яндекс-Директ. Яндекс собирает информацию о пользователях, чтобы показывать им более релевантные рекламные объявления, а в соответствии с этим и персонализировать поисковую выдачу. Рекламодатель заинтересован получать лиды и продажи. Если «Директ» может их обеспечить – поток его клиентов будет только расти.

Вторая причина – это отказ от весомых когда-то текстовых и ссылочных факторов. Когда-то можно было обмануть систему с помощью спама по ключевым словам, а также с помощью усиления ссылочного профиля. Обе проблемы были решены с помощью «Баден Баден», «АГС» и «Минусинска». К тому моменту уже существовало суровое наказание за использование накруток поведенческих факторов, и проблема казалась решённой: такой метод к 2015 году резко потерял былую популярность.

Кроме того, несмотря на выраженные недочёты такого рода оценки сайта достоинств при правильной реализации у него намного больше. Чего стоит весь ссылочный профиль, возраст сайта и объёмные тексты, густо напичканные ключами, если посетитель заходит на страницу, немножко проматывает её и уходит искать дальше? Документ явно нерелевантен, а мы же говорим вебмастерам: «Делайте сайты полезными для людей».

Проблема в том, что Яндекс загнал себя в ловушку. Для того, чтобы оценить сайт, ему нужен трафик. А для трафика нужны позиции в топе. А чтобы попасть в топ – нужна оценка поведенческих факторов. А где ж их взять, если трафика нет? Остаются либо манипулятивные практики, либо… покупка всё той же рекламы из Яндекс-Директа. Это выгодно Яндексу, но не любому владельцу бизнеса, и иной раз проще и дешевле использовать запрещённый «допинг» в виде накруток.

Баны за накрутку поведенческих факторов

В первую волну банов за применение накруток поведенческих факторов пострадали пользователи нескольких основных систем накрутки. Вычислялись они легко и вне зависимости, была ли это накрутка ботами или живыми людьми. Выявить связь сайта с каким-то сервисом из списка, оценить выраженные аномалии CTR и рост «роботности» на сайт – дело совсем простое. Если в результате наказания ваш сайт вылетает из поиска на годик – задумаетесь не только вы.

И после показательных казней «нехороших» сайтов и фактической ликвидации массовых сервисов накрутки проблема казалась решенной. Уже в 2017-м в блоге Яндекс-Директа представители Яндекса уведомляли пользователей об увеличении значимости поведенческих факторов при ранжировании рекламы на поиске.

Нужно понимать, что тогда речь шла о показательной порке конкретных сервисов накрутки и их клиентов, а вовсе не о каком-то масштабном выявлении нарушений на уровне оценки трафика и его качества. Сервисы по накрутке никуда не делись и после, как не исчезли и их клиенты. Однако ни о каких санкциях речи уже не шло. Впрочем, подобную историю можно наблюдать и на примере других масштабных санкций Яндекса за манипуляции.

«Дыра» в алгоритме и шабаш накрутчиков в 2019

Итак, к 2018 году накрутка поведенческих была официально ликвидирована как опасная и неэффективная практика, Яндекс со спокойной душой увеличил значимость ПФ для оценки метрик, а пытливые умы и беспокойные ручонки оптимизаторов продолжали испытывать систему на прочность. И конечно же, уязвимость алгоритма была быстро найдена. «Дырка» была настолько простой и доступной, что большинство оптимизаторов, узнав о её существовании, просто не верили и даже не хотели протестировать. Благодаря смартфону, режиму «инкогнито» и периодической смене IP можно было втупую и вручную за пару дней загнать в топ практически что угодно, если URL был вообще в зоне видимости поисковика. А уж если у вас были технические возможности, то благодаря накруткам можно было загонять в топы даже мусорные сайты.

К середине 2019 расплодилось огромное количество «агентств», которые занимались только этим, и строили на накрутках весь свой бизнес. Схема была проста: найти сайт в топ-20 или даже в топ-30, написать письмо владельцам с заманчивым предложением, и вот он профит: один запрос – 15 тысяч рублей, и это всего несколько машинных часов. Сервер молотит, позиции растут, деньги капают.

Образец письма, которое одна широко известная в узких кругах веб-студия рассылала потенциальным клиентам. Студия закрыта, но интернет всё помнит.

Конечно же, такое положение не устраивало не только владельцев онлайн-бизнесов, но и «честных» оптимизаторов. Почему я пишу «честных» в кавычках? – Потому что в данном случае значительный процент недовольных огорчал лишь факт упущенной выгоды или падение спроса на другие, не менее манипуляторские услуги. Скажем, продажу ссылок или возможность эксплуатации хорошо прокачанного бренда.

Пока «накрутчики» набивали карманы, многочисленные оптимизаторы были озабочены единственным вопросом: а что там Яндекс, и когда прикроют лавочку? И как яндексоиды справятся с проблемой? Может, снизят, наконец, приоритетность ПФ?

Развязка, как казалось, наступила в конце февраля 2020. «Дырка» была ликвидирована, и от десятка визитов по запросу никакого результата уже не было. Параллельно с этим повторилась ситуация с санкциями против клиентов вполне определенных сервисов, и многие «веб-студии», зарабатывающие исключительно накрутками, были закрыты.

Накрутки в 2020-2021

Однако ближайшие месяцы показали, что для отрасли изменений к лучшему не появилось: напротив, Яндекс заболел всерьёз и надолго. Знакомый всем владельцам сайтов «шторм» продолжается до сих пор. А количество сайтов, продвигающихся накрутками, только выросло.

Судя по всему, в Яндекс решили справиться с проблемой предельно просто: масштабированием метрик и ремаппингом. Если год назад вопрос с ростом по позициям решался десятком визитов из зоны видимости, то теперь – тысячей, и уже по совсем другим принципам.

Борьба с накрутками привела лишь к значительному усложнению проблем абсолютно для всех:

  • SEO-специалисты столкнулись с дилеммой: хочешь быть эффективным – «крути» сам или уйди с рынка. И это уже не говоря об общем усложнении работ с семантикой, когда более половины ключевиков из систем статистики оказываются накрученными «пустышками»;

  • Сайты, продвигающиеся исключительно «белыми» методами, теряют позиции и трафик: через них регулярно пробегают табуны ботов, буквально затаптывая важные кликовые метрики. Сайты «накрутчиков» растут, «честные» сайты падают;

  • Те, кто зарабатывает накрутками, но не понимает, как именно работают алгоритмы, не могут показать никаких результатов (и это, пожалуй, единственный хороший результат);

  • Яндекс получает тонны негатива: сильно «перегретый» Директ, массовый клик-фрод, накрученная поисковая выдача. «Все уходим в Гугл!» – этот клич можно встретить на любой площадке, посвященной интернет-маркетингу.

Едва ли в течение 2021 года Яндекс найдёт какое-то решение проблемы с манипуляциями ПФ, если не решит в принципе отказаться от них в формуле ранжирования. На сегодняшний день избранная им тактика выглядит как обычная попытка игнорирования.

В чём проблема с накрутками

Нужно понимать, что накрутка поведенческих факторов, она же – имитация действий реальных пользователей, в Яндекс наказывается очень сурово (что показывает важность ПФ для алгоритма): бан на уровне хоста от 8 месяцев. То есть был ваш сайт в поиске – и вот его вообще нету и не будет, пока срок не отмотаете. Для серьёзного бизнеса с хорошо прокачанным брендовым доменом это колоссальные убытки, равнозначные закрытию бизнеса. А в некоторых сегментах это не значит вообще ничего: профит может быть настолько велик, что выгоднее плюнуть на «убитый» домен и просто переехать на новый.

Блеск и нищета

Основная же проблема накрученных позиций заключается вот в чём: «накликав» бешеные CTR своему сайту, вебмастера и владельцы сайтов получали позиции в топе, из топа начинал идти органический трафик. А если сайт не соответствовал ожиданиям пользователей и держался только на накрутках – поведенческие метрики портились и сайт начинал выпадать. А значит, нужно снова включать «машинку» и накручивать ещё сильнее, и платить ещё большие деньги, чтобы не терять позиции.

Но место в топе и трафик на непроработанный сайт в любом случае не приносят продаж: реального пользователя не обманешь.

Как выявить накрутку чужого сайта

Прежде всего: правильную накрутку поведенческих факторов определить нельзя – даже если у вас есть доступ к Метрике с её «Вебвизором», Яндекс-Вебмастеру с информацией по кликам и показам. Просто потому, что такая накрутка подразумевает строгое соблюдение последовательности проработки ключевиков покластерно, учитывает частотность и хоть как-то ориентируется на CTR (общий и частный). Не может у сайта на 80-й позиции быть CTR в 50%, такой кликабельности нет даже с первой позиции в топе.

Но если накруткой занимаются рисковые парни без царя в голове и жалости к сайту – то вычислить манипуляции можно даже с использованием внешних средств мониторинга.

Нужно понимать, что сам по себе никакой сайт расти не будет. И даже поисковая оптимизация редко даёт стремительный рост сайта в поиске, тем более – для домена-новорега. Поэтому если вы заметили появление на своём рынке нового игрока, который резво обходит на выдаче всех, и это не агрегатор – нужно к нему присмотреться.

Простейший способ понять, что сайт продвигается накрутками – это посмотреть видимость этого сайта в Wordstat по брендовым запросам (доменному имени). Если вы видите резкий всплеск или уверенный рост таких запросов – это накрутка. Когда на рынке появляется новый громкий проект, да ещё большого масштаба – им будут интересоваться. Если же речь о никому неизвестной компании, которую вдруг начали спрашивать по сотне раз за день – это они, наши бесхитростные друзья-накрутчики.

Рост видимости сайта в результате накруток домена
Накрутки домена по вордстату

Как выявить накрутку на своем сайте

Как и в случае с накрутками чужих сайтов, вычислить негативную накрутку на свой сайт можно не всегда. На что обращать внимание?

  • Аномальный рост трафика из «паленых» подсетей. Настоящей легендой рунета за 2020-й стали прокси Metropolitan branch of OJSC MegaFon.

  • В ряде случаев можно отловить сервисы накрутки по рефереру, особенно это касается тех систем, которые используют не ботов, а живых пользователей. Система отправляет кликера на выдачу, из выдачи – на сайт, после чего пытается вернуть его обратно на сервис.

  • Рост трафика из нецелевых регионов. Накрутчики используют прокси-сервера, и не всегда они относятся к заданному региону.

  • Резкие изменения в типе устройств, с которых заходят на сайт. Например, на ваш сайт стабильно и традиционно идут только с ПК – и вдруг вы видите аномальный рост со смартфонов.

  • Рост трафика в принципе – если вы ничего не меняли на сайте длительное время, а сайт вдруг начал необъяснимо расти.

Любые аномальные всплески трафика, продолжающиеся длительное время – повод заподозрить недоброе и потратить некоторое время на анализ ситуации.

Как противодействовать накрутчикам

В 2020-м году многие владельцы сайтов заметили массовые нашествия ботов на свои сайты. Всплески посещений отмечаются из поиска, по рекламным объявлениям, из соцсетей, а также прямые заходы. Трафик такого типа преследует две основные цели:

  • «Нагуливание» профилей (фингерпринтов) для дальнейшего использования в накрутках или на продажу;

  • Собственно накрутка: на сайт заходят из поиска только для того, чтобы вернуться на выдачу и найти продвигаемый сайт.

Что такое фингерпринты

Фингерпринт, как можно догадаться по названию, это цифровые «отпечатки пальцев» пользователя. Вы используете одни и те же машины с неизменяемыми конфигурациями «железа», TCP/IP, операционные системы, браузеры, браузерные плагины и т.п. Теоретически мобильные устройства должны быть более защищены от слежки такого рода, но фактически для этого нужно приложить дополнительные усилия – да и кому это нужно? Мало кто из чистой паранойи будет использовать виртуальные машины, менять хосты, прокси и т.п.

Поисковые системы используют фингерпринты для идентификации пользователей и отличия бота от человека. Живой человек не может не оставлять следов: он пользуется одними и теми же устройствами, программами и приложениями, у него есть история поиска, по которой можно понять его интересы. Даже если не использовать куки – фингерпринты многое расскажут о вас. Подразумевается, что робот так не умеет, если, конечно, его разработчики об этом не позаботятся.

Для накруток в малых объёмах достаточно было использовать смену IP и режим «Инкогнито». Однако в какой-то момент Яндекс перестал учитывать такие визиты в ранжировании, и потребность ботоводов в фингерпринтах резко возросла. Их «нагуливают» как для собственной ботофермы, так и на продажу.

Если вы видите аномальный рост заходов из соцсетей, по прямым заходам и даже их органики – это, вероятно, те самые боты, прокачивающие свою человекообразность, список интересов, историю поиска. Отличить их от реальных людей поисковая система не в состоянии, и метрики роботности остаются на нуле.

Способы защиты

Если у сайта малый трафик и данных по поведенческим метрикам сайта у Яндекса немного, либо эти метрики далеки от идеальных – сайт под угрозой. В течение достаточно непродолжительного времени сайт может потерять свои позиции вплоть до полного вылета за пределы топ-100. Касается это только Яндекс, Гугл на такое не реагирует никак.

Какие способы защиты были протестированы:

  • Выявление подсетей, из которых идут боты, и бан или перенаправление их на субдомен. Способ нерабочий: посткликовые метрики в таком случае повредить нельзя, но от возврата на выдачу такая защита не защищает.

  • Использование сервисов антифрода. Тот же эффект (вернее, отсутствие положительного эффекта).

  • Использование CloudFlare и иных подобных сервисов, теоретически способных отсеять ботов. Ботов такие сервисы могут на сайт не пустить, но от скликивания не спасут. Зато данные в Метрике будут «чистыми».

  • Письма «платонам». Отвечают всем, обещают отсутствие негативных последствий. Как показывает практика – обманывают. Но попытаться в любом случае стоит.

По собственному опыту могу сказать, что основной работающий способ – это привлечение трафика из поиска с хорошими поведенческими показателями на сайт. Сайт с высоким трафиком с хорошими показателями из органики никакие боты не повалят. Но надо понимать, что поддерживать показатели с помощью дополнительного трафика можно только с помощью привлечения больших бюджетов на контекстную рекламу, на хорошо оптимизированный сайт высокого качества, либо с использованием всё тех же накруток. Либо ждать от Яндекса решения проблемы.

Ещё один способ, который не защитит, но позволит минимизировать ущерб (если он уже есть) – попытаться обнулить поведенческие метрики на заданных URL либо вообще на домен. Для ликвидации негативных последствий подокументно стоит немножко отредактировать контент страницы и изменить её URL, не настраивая никаких редиректов. Редирект подклеит вам весь негатив со старого URL. Если у вас при этом хорошие позиции в Google – создайте для Яндекса новую страничку, старую – деиндексируйте. Новую же закройте от Google. Это достаточно «кривой» способ, прежде всего по техническим причинам, но в ряде случаев показавший себя хорошо.

Нужны ли накрутки вашему сайту

Вот моё персональное мнение с соблюдением всех условностей и политеса, свойственного теме накруток в SEO-среде.

Использование накруток поведенческих факторов можно сравнить с применением допинга для спортсменов. Да, все профессиональные спортсмены во всём мире так или иначе интенсивно едят какую-то «химию», чтобы показывать результаты. И да, они делают это так, чтобы их не поймали – и не дисквалифицировали. И вот на беговую дорожку с такими машинами для бега выходит обычный человек – дряблые мышцы, пузико, плохая форма, но волшебную пилюльку ему тоже дали. Старт – и он держит темп первые 30 метров. А потом падает, потому что отказал «мотор» или порвалась связка.

  • Я видел сайты, которые быстро взлетели благодаря накруткам – и быстро упали, даже без всякой дисквалификации.

  • Я вижу сайты, которые старательно накручивают – и это никак не сказывается на позициях, видимости, и тем более – конверсиях.

  • И я вижу сайты, которые не накручивают – а они растут.

«Волшебные пилюли» могут быть уместны, если уже сделаны все возможные меры по оптимизации, и исчерпаны все средства. Либо приходится соревноваться с такими же оптимизированными сайтами, сидящими на допинге. Либо речь идёт о решении вполне конкретных задач, связанных с прохождением некоторого порога или набора нужных характеристик.

Количество в SEO не переходит в качество, а сильнодействующий яд может стать лекарством только в руках врача.

0
149 комментариев
Написать комментарий...
Виктор Петров
Автор

Ой, Я, кажется, наступил на хвост какому-то продавцу накруток.
Вот незадача.

Ответить
Развернуть ветку
Дюша Метёлкин

Мы его переплюсуем.

Ответить
Развернуть ветку
Ваня Пупкмн

надо этому выскочке вправить мозг

Ответить
Развернуть ветку
2 комментария
Тарас Шабанов

Спасибо за статью. Подскажите пожалуйста, я правильно понимаю, что если на сайт валит прямой трафик, то самое правильное это включить CloudFlare? И чтобы всё работало через SSL то надо включать платный тариф за 200 уе?

Ответить
Развернуть ветку
5 комментариев
Oleg Dergilev

Годно. Не согласен только с тезисом, что Яндекс это поисковик. Это же маркетплэйс, лет 5 как уже...
У него в топе либо накрученные ПФ либо какие-то лендосы вчера сделанные, а качественные сайты отправлены в ТОП-50-100, смысл в этом либо в полной потери логики машины ранжирования, либо в принуждении качественных сайтов (за ними обычно же стоит крупный бизнес) идти в контекст.
Яша все эти обвинения игнорирует. Впрочем как и другие про дикую помойку Дзена или скликивания в Директе

Ответить
Развернуть ветку
Виктор Петров
Автор

Я бы сформулировал иначе: Яндекс - это рекламная система с возможностями поиска. Именно в плане информационного поиска он даже в чём-то обходит Гугл, как минимум - в плане актуальности информации любого плана.
Но вот его истерическая логика явно требует ремонта или хотя бы заплаток.

Ответить
Развернуть ветку
Turizm World

Не нагоняйте уж так сильно на Яндекс. Качественный контент иногда пробивается в топ сам по себе. 4 месяца назад качественно доработал 20 старых статей и большая часть из них, и по ныне в топ 1-3 и систематические ботовские атаки не выбивают эти страницы из топа. Ради интереса на одну из этих статей поставил анкорную ссылку с морды другого своего сайта (правда ссылка была со 100% тематическим вхождением), так эта страница стабильно по ВЧ в топ 1 Яндекса, даже Вики позади. Но такие ссылки это бриллиант, который просто нереально поставить на поток.

Но скажу честно, что на доработку каждой статьи уходило порядка 9-12 часов, но результат стоил того. Всё никак не могу себя заставить другие статьи начать дорабатывать. Что самое интересное доработка дала рост в Яндексе, но не в Гугле, который хочет, скорее всего под доработку и качественные ссылки. Делаю вывод, что качество контента в ранжировании для Яндекса важнее, чем для Гугла и тут ПФ имеют второстепенное значение, как минимум в моей тематике.

После доработки в топе Яндекса эти страницы начали появляться примерно через 10-14 дней, и это при том, что тематика сайта одна из самых конкурентных в интернете, а возможно и самая конкурентная.

Так, что качество рулит, так было, есть и будет.

Ответить
Развернуть ветку
4 комментария
Руслан Садыков

Олег! Вы правы. Получается микробизнесу остается перестать заниматься сео-продвижением сайта, а все свое свободное "ночное' время и деньги направить на рекламу в директе, авито, яндексуслуги,  яндексобьявления и т.п.

Ответить
Развернуть ветку
Милана Шахова

Хорошая статья для тех, кто считает, что без накруток SEO вообще не существует.

Особенно понравилось:
"Проблема в том, что Яндекс загнал себя в ловушку. Для того, чтобы оценить сайт, ему нужен трафик. А для трафика нужны позиции в топе. А чтобы попасть в топ – нужна оценка поведенческих факторов".
Вот поэтому (ну конечно и по многим другим факторам) Яндекс выкатывает довольно нелогичные апдейты по сравнению с Google. Мне все время видится, как он пытается исправить ситуацию с выдачей в лучшую сторону, но проваливается все глубже в болото накрученных сайтов, своих же агрегаторов и прочего мусора.
Например, Google в 2019 спокойно выкатил патент на ПФ - https://seoheronews.com/google-patented-behavioral-factors-what-you-need-to-know , в связи с чем начали рекомендовать делать эффективные сниппеты в Google, повышать CTR и так далее.

Письма Платонам в 98% случаев don't work, потому что Яндекс отвечает довольно холодно: это не накрутки, это роботы ПС, не волнуйтесь и развивайте свой сайт. 🤡

Ответить
Развернуть ветку
Виктор Петров
Автор

Ну так им же рекламу надо продавать. Да, Гугл тоже грешен, но хоть какие-то берега видит. Здесь же во имя Св.Монетизации просто готовы всё пустить под откос.
Самое забавное - это молчание говорящих голов. Страусиная политика или попустительство, даже неясно.

Ответить
Развернуть ветку
19 комментариев
Рекламное Агентство

Да, если бы это была накрутка, только теперь это скрутка конкурентов, и скликивание директа, будь они прокляты... 👹

Ответить
Развернуть ветку
Виктор Петров
Автор

А тут уже прямой вопрос Яндексу. Могли бы решить вопрос, если бы хотели, тут всё прозрачно.
Но Директ сам себя не продаст, как я понимаю.

Ответить
Развернуть ветку
Алексей Медведев

Всем привет. Как сам вижу этот вопрос:
Если ваш сайт оптимизирован, у вас качественный контент, отвечающий интенту запросов пользователей - накрутка пф реально помогает. Видел это на реальном примере. Но стоит только накосячить с ботами, все, приехали. Профилей нагуливается огромное множество, но все они под вопросом, потому как появляются из ниоткуда и так же в никуда уходят. А реальные пользователи, с долгой историей, которые известны и Google и яндексу, они никуда не деваются! И именно они и задают "эталонные" поведенческие метрики. Как правильно написал Виктор, если уж начали накручивать, то останавливать этот процесс нельзя. Чтоб удерживать позиции, ботов (пользователей) должно становиться все больше. А частотность (востребованность) запроса имеет ограничения по регионам! Не может быть нужных вам пользователей больше, чем там реально существует!
Пессимизировать свой домен таким "продвижением" - это сегодняшние реалии накруток. И что бы не обещали "товарищи" - всему есть свой предел, и наступает он быстро.
А вот конкурентов понизить, или даже помножить на 0, вполне себе можно. Но к чему такая политика приведет? 

Ответить
Развернуть ветку
Виктор Петров
Автор

Вывод абсолютно точный: попытка обмануть поисковики накруткой несоответствующего сайта – пусть вникуда. Как с любыми "стимуляторами". Сначала может быть хорошо, а потом – быстрая деградация и канава у дороги.

Ответить
Развернуть ветку
16 комментариев
Харламов

Алексей, а с чего вы взяли, что если сайт хорошо оптимизирован и он качественный, то он начинает расти от накруток?
Вы не допускаете мысли, что он сам из-за своей хорошей оптимизированности и качественности растет?
А то получается - сел я в ракету и полетел. А полетел я потому, что я носки одел. Вот без носков я хрен бы взлетел. Мне кажется в ваших рассуждениях причинно-следственная связь нарушена.

Ответить
Развернуть ветку
2 комментария
Павел Яньшин

Один из немногих актуальных материалов про ПФ на сегодняшний день 👍

Ответить
Развернуть ветку
Виктор Петров
Автор

Спасибо. Тут из практики последних двух лет с вознёй со скручиванием, аналитикой по трафу, мониторинга ситуации, конкурентного анализа и тонны тестов.
Яндекс для себя я до сих пор рассматриваю как приоритетную в продвижении систему, и жаль, что он всё глубже вязнет в выкопанной им же самим яме.

Ответить
Развернуть ветку
Konstantin Shugar

Проблема в неосведомленности бизнеса о таких манипуляциях с поиском - большинство не понимает последствий и для них по большему счету:
черное seo = белое seo = шаманский ритуал с бубном = вот Вам деньги, договоритесь там с Яндексом.

В существующих реалиях именно такие персонажи могут согласиться гнать на свой основной сайт ботов.
Правда, есть еще и агентства, которые умалчивают о темных материях, дабы показать результат и получать ежемесячный донат до дня Х, когда все дествующие персонажи воочию увидят "падение Вавилона". Но это уже другая история.

Поскольку накрутка ПФ для знающих спецов непременно сопровождается с риском попасть впросак - они делают умнее: создают новый сайт, как правило шаблонный, ставится готовая база, подключается магия вне Хогвартса.
В лучшем случае сайт выстреливает и на нем, помимо искусственного разума, оказываются реальные живые люди, которые оставляют заявки - вебмастеру остается торговать заявками, и считать экономику (-затраты на магию + деньги за лиды = чистая прибыль).
Далее сайт попадает под санкции, про него благополучно забывают и цикл повторяется.

Ответить
Развернуть ветку
Виктор Петров
Автор

В этом отношении интереснее всего отслеживать веб-студии. Ничем не примечательное агентство, звёзд с неба не хватает, на сайте и в ссылочном профиле всё предельно стандартно и банально. Держится, примерно, на 8-10 позиции годами - пока топы забирают очередные ботоводы, чтобы выпасть насовсем через полгодика.
А этим хоть бы что.

Ответить
Развернуть ветку
Руслан Садыков

Я слышал про дропы. Это когда покупают брошенный домен, восстанавливают сайт из вэбархива и на него нагоняют ссылки или ПФ

Ответить
Развернуть ветку
3 комментария
Константин Губеркан

Одна из немногих статей по поведенческим, где явно видно, что человек разбирается в теме. 

От себя: самый эффективный способ на раннем этапе для сайта показала именно контекстная реклама по целевым запросам. Месяца 3-4 и накрутка в дальнейшем будет не страшна. Но тут нужно обязательно учесть, что сайт должен максимально отвечать на интент запросов и полностью им соответствовать, только тогда это будет работать на руку.

Ответить
Развернуть ветку
Виктор Петров
Автор

Согласен: в этом вопросе проще перебить зловредов трафиком, чем блокировками. Но бюджеты, да и тематика должна быть частотной.

Ответить
Развернуть ветку
veraku

Сплошная вода, ничем не отличающаяся статья от еще сотки других которые я уже перечитал на эту тему, просто трата времени. 

Ответить
Развернуть ветку
Виктор Петров
Автор

Я очень огорчён.
Просто раздавлен тем фактом, что вы таки не смогли найти тут ни единой крупицы полезной информации.

Ответить
Развернуть ветку
Чайка О.

Написано коротко и доступно, с аргументами и выводами.
Можно показывать, когда спрашивают:
"Так можно крутить или нет?"
"Мы крутим, нужно ли бояться?"
"Начинать или нет?"
"Продолжать или нет?"
и т.д.

Ответить
Развернуть ветку
2 комментария
Чайка О.

"без всяких оптимизаций сайта", но с накруткой: в Яндексе резвый рост трафика (весь прирост, естественно, с мобильных), количества фраз и позиций
*в Гугл спад по трафику и запросам

Ответить
Развернуть ветку
В А

Судя по статье положение сайтов выглядит удручающе: накручивай и рекламируйся или кури в сторонке

Ответить
Развернуть ветку
Виктор Петров
Автор

Нет, не всё так плохо. Свою часть трафика можно получать и без накруток, вполне "белыми" средствами. Для примера: двигал я сайт услуг по ремонту квартир и офисов. Топовые там были накручены все (пара скриншотов в статье, кстати, про них). Обычным масштабированием структуры и проработкой страниц увеличили траф за полгода в 5 раз, и заказов с сайта стало значительно больше. Да, не по ВЧ. Но ВЧ и конверсией не отличаются.

Ответить
Развернуть ветку
Руслан Садыков

Получается, что так. Ну как микросайту конкурировать с лерумерлен, касторама, tiu.ru и т.п.?

Ответить
Развернуть ветку
1 комментарий
Руслан Садыков

Получается, что сайт микробизнеса обречен находится за 101-й позицией. Если только Яндекс не решит его подбросить в ТОП10, чтобы проверить поведенческие. А потом опять обратно на дно. Когда пишешь в Яндекс с просьбой проверить нет ли наложенных фильтров, получаешь смешной ответ: поверьте мне, ограничений нет, вы продолжайте улучшать сайт. Я уже три года улучшаю сайт zaborsetka, а результата нет. Но в Гугле сайт нормально показывается.

Ответить
Развернуть ветку
Виктор Петров
Автор

У вас по запросу "купить забор" главная страница конкурирует с "Каталогом", а каталог - с "Заборами". Надо устранять проблему каннибализации ключевиков. И я бы предложил выбрать главную.
Яндекс просто не понимает, что ранжировать выше - с точки зрения текстовой релевантности страницы одинаковы.
На выдаче кроме агрегаторов сайты с ассортиментом не больше, чем у вас, значит, любой из этих сайтов можно подвинуть - вопрос проработки посадок и семантики в целом.

Ответить
Развернуть ветку
2 комментария
Максим Пряник

Обращайся, забор из профлиста в топе, + стоимость с установкой, цена и тд

Ответить
Развернуть ветку
Руслан Садыков

Виктор! Чтобы по сео продвигаться нужна cms. Прошу написать статью какую лучше всего использовать. Кто то говорит, что джумлу и вордпресс тяжело продвигать, но полно недорогих программистом. Кто то рекомендует модех революшен, но о ней я не слышал и программистов мало наверное. А у битрикса надо ежегодно лицензию покупать. Есть еще сайты типа Мегагагруп, но они тоже с ежегодным продлением и у них свои минусы. Спасибо

Ответить
Развернуть ветку
Виктор Петров
Автор

CMS - это больше про удобство работы с контентом, чем про SEO. С точки зрения чистоты кода у вас всё в порядке, если контент и структуру можно менять без проблем - можно и CMS не менять.
Что касается выбора CMS - и джумла, и вордпресс, и modx продвигаются одинаково хорошо. Битрикс тоже подойдёт, но с ним действительно будет больше возни и нужно больше вливаний бюджетов - это магазинный движок, для вашего ассортимента в нынешнем виде его возможности и ресурсоемкость явно избыточны. Я бы взял WP с толковым шаблоном (30-100$) с WooCommerce, этого достаточно.
С Мегагруп давно дела не имел, помню в основном негатив, так что тут ничего сказать не могу.
Вам нужно просто хорошо развернуть структуру сайта и представить ассортимент без дублирования по ключам. Хорошая идея - вот хоть у этих kazan. zabor-profi. ru структуру сайта и страниц подрезать по максимуму, и должно быть хорошо.

Ответить
Развернуть ветку
Александр Романенко

Много конечно в комментах всего написали, а от по итогу все как сеошили, так сеошить и будут. Да и сео уже лет 10 умирает-умирает, но никак не умрет) 

Ответить
Развернуть ветку
Виктор Петров
Автор

Часть месседжа  статьи - "Не всё так просто".
Раньше крутили в рамках SEO. Сейчас умудряются крутить без всяких оптимизаций сайта.

Ответить
Развернуть ветку
Юрий

Отличная статья! Респект за такой большой текст, который отлично читается и отдельно - за проведенную аналитическую работу 💪😎

Ответить
Развернуть ветку
Харламов

Странная статья. Вроде написано много и что-то по делу. Но очень длинно и вывод так и не ясен.
На основной вопрос из темы автор так и не ответил.
Причем, в статье наблюдается противоречие - то автор пишет, что белые сайты теряют позиции и без накрутки никак. То в конце статьи пишет. что он видит сайты, которые растут без накруток.
Виктор, вы сами определитесь - нужны ли сайту накрутки, важны ли они или можно и нужно и без них.
В общем, длинная статья полная противоречий и не отвечающая на поставленный вопрос.
Снова жаль, что я зря потратил на лонгрид свое время.

Ответить
Развернуть ветку
Константин Губеркан

Нет вывода в таком вопросе. Если бы вы занимались SEO, то прекрасно бы поняли: однозначности быть не может.

Ответить
Развернуть ветку
Ваня Пупкмн

ну одно я тебе точно скажу - трастовый хост только идиот будет крутить

Ответить
Развернуть ветку
2 комментария
Юлия Каневская

Автору большое спасибо за статью. Очень в жилу, что называется. Как могли отбились от странного многотысячного трафика из соц сетей, забанив IP, частично которые, кстати, нашла и в статье. С полсотни своих еще добавили. И все бы ничего, и тфу-тьфу начали возвращаться позиции в яндексе. НО. на этой неделе нашли вот такое чудо - вдруг 350 заходов в день (при норм 5-6). И все ГуглАналитик показывает как заходы с поиска но с ключевым словом "www.yourtraffic.club";. - скрины прилагаю. Понятно, что сервис накрутки.  Виктор, коллеги, кто-то сталкивался с этим зверьем? Вопрос к знающим: с этим можно как-то бороться?..

Ответить
Развернуть ветку
Виктор Петров
Автор

Реферальный спам. Они, вероятно, даже не из поиска, так что к накрутчикам ПФ по рецептам Яндекса это отношения не имеет. Просто гадят в статистику из чисто спамерских соображений. Сайту, вероятно, во вред такое не пойдёт, можно просто отфильтровать в той же GA, чтобы глаза не мозолили

Ответить
Развернуть ветку
Константин Скобеев

Спасибо за статью и поднятие темы.
По поводу защиты - наши ребята антифродом вроде бы отбивались. Почему считаете что он априори не работает? Или речь идет именно о серьезных атаках на сайт, когда для молодняка защиты просто нет?

Ответить
Развернуть ветку
Виктор Петров
Автор

Мне попадались кейсы, где антифрод срабатывал. Но слишком мало данных для анализа - ни возраста домена, ни объёмов трафика. Сложно делать выводы.
По тем проектам, которые удалось изучить более пристально и в собственной практике - толку от антифрода не было. Скорее всего - причина именно в кликовых на выдаче, не в порче посткликовых метрик.
Я думаю, многое определяется именно объёмами трафика. Примерно как со ссылочным: можно было снять "Минусинск" ликвидацией плохих ссылок, а можно было убрать его добавлением качественных.
Кстати, вот реальных атак средствами ПФ в русле негативного SEO не встречал, только последствия того, что кто-то идёт по головам.

Ответить
Развернуть ветку
Прочел это-потратил время зря

у меня как раз вот сегодня такая херня, о которой Вы писали

Ответить
Развернуть ветку
Виктор Петров
Автор

Смотрите, по каким запросам шли, это интереснее. А так набор стандартный. Я tele2 упоминать не стал, но ботоводы с их сетей идут очень бодро.

Ответить
Развернуть ветку
10 комментариев
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
2 комментария
Александр Домени

Мы в Ботфактор как раз занимаемся защитой сайтов от ботов + защищаем от скликивания Яндекс Директ и Google ADS.

Анализируем более 100 технических и поведенческих параметров каждого визита. Весь трафик делим на целевой/нецелевой/боты.

В данном случаи подойдет Антибот для сайта - https://botfaqtor.ru/sites-antibot/.
Блокирует ботов из любых источников, имеет множество отчетов и гибкую настройку блокировки.

Также есть защита от скликивания Я.Директ - https://botfaqtor.ru/yandex-clickfraud/ и защита от скликивания Google ADS https://botfaqtor.ru/google-clickfraud/.

Регистрируйтесь и тестируйте бесплатно ;)

Ответить
Развернуть ветку
Ваня Пупкмн

Ну ведь подсети могут быть динамическими. А капча или бан клаудфаером тебя не защитит от возврата на серп. Редирект - тоже такое себе, как бы боком не вышло, то что ты для разных юзеров даёшь разные страницы ПС не обрадует. Сейчас нагуливают профили массово под Яндекс. Аналитикс их не видит, ток Метрика. Но и без метрики их нагулять можно - как ты верно сказал по фингерпринту. Это примерно , какие сделал выводы прочитав 150 страниц темы на серче. Это пока нагул. 

Дальше эта толпа ботов пойдёт крутить позиции кому-то в +. 

Ответить
Развернуть ветку
onepositive

сколько стоят ваши услуги?

Ответить
Развернуть ветку
Виктор Петров
Автор

Мои? Зависит от проекта и конкретной работы. Киньте в ЛС ссылку на сайт, а лучше - бриф. Посмотрю фактуру, чтобы говорить предметно.

Ответить
Развернуть ветку
Руслан Садыков

Виктор! Напишите пожалуйста статью в чем отличия в продвижении сайта в Яндек, Гугле, Бинге. А то почему-то по моему сайту elepas.ru позиции в Гугле попадали. Хотя вроде он был более дружелюбным поисковиком. Спасибо

Ответить
Развернуть ветку
Виктор Петров
Автор

Есть такая: https://spark.ru/startup/textarget/blog/70564/google-vs-yandeks-raznitsa-i-obschee
Bing не рассматривал, потому что для рунета считаю его совсем неинтересным, как и какой-нибудь Baidu. Им, если кто и пользуется, то американские фермеры, которые купили нотубук с "виндой" и пока ещё не разобрались, что и как.

Ответить
Развернуть ветку
2 комментария
Ваня Пупкмн

Гугли отчёты Ашманова.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Алексей Ванин

Спасибо автору за материал. Есть еще один важный момент. Обычно поведенческие характеристики смотрят в Яндекс Метрика и в Google Analytics и это правильно. Но смотрят для всего сайта в целом. И поднимать стараются ПФ для всего сайта в целом.
Но сайт ведь состоит из страниц. И анализировать ПФ надо для каждой страницы отдельно. В Яндекс Метрика и в Google Analytics не удобно анализировать каждую страницу отдельно. Интерфейс не удобный.
Как делаю я, может кому то пригодиться. Я анализирую только 20-50 самых популярных страниц сайта. Где и как? В интернет сервисе spage.me. В этом сервисе я добавляю свой сайт и подключаю к нему доступ к счетчикам Яндекс Метрика и в Google Analytics.
Интерфейс Spage определяет самые популярные страницы моего сайта и предлагает постепенно их прокликать.
Для каждой страницы загружается интерфейс со статистикой и поведенческими факторами (ПФ) для конкретной страницы моего сайта.
Еще в этой системе можно создать группу тизеров и сгруппировать показы в зависимости от конкретной страницы сайта. Тизеры ведут на внутренние страницы сайта, люди кликают их и повышают ПФ.
И еще один момент. Важно добавлять в текст страницы ссылки на внутренние страницы сайта. По таким ссылкам хорошо кликают и повышают количество просмотров на 1 посетителя и время на сайте.
Обладая информацией о ПФ страницы, можно изменить страницу (добавить релевантный поисковому запросу текст, ссылку на внутреннею страницу сайта, добавить картинки, графики, ссылки) и заинтересовать посетителя.
Еще spage.me показывает ПЗ (поисковые запросы) через которые перешли на конкретную страницу вашего сайта. Проанализировав ПЗ можно добавить еще текста, что бы расширить уже существующие ПЗ конкретной страницы.

Ответить
Развернуть ветку
Сергей Садовничий

Хороший материал!

Ответить
Развернуть ветку
Вера Свердлова

хорошая статья. у меня сдали нервы с этой непрерывной каруселью с трафиком, что я даже решила временно выйти из сео после 12 лет вполне успешной работы.

Ответить
Развернуть ветку
Dima Lapkovskiy

SEO - жесткая штука: кто ломается, кто становится еще сильнее :)))) 

Ответить
Развернуть ветку
Виктор Петров
Автор

Игра стала чуть сложнее. НО интереснее же!

Ответить
Развернуть ветку
SMM STATS

https://smmstats.ru/

Мы предоставляем услуги по раскрутке и продвижению ваших аккаунтов в различных социальных сетях по самым доступным ценам в СНГ. В нашем ассортименте вы найдете более 2500 различных SMM услуг для вас или вашего бизнеса. Благодаря автоматизированной системе нашего SMM-сервиса мы принимаем заказы онлайн 24/7!

У нас также есть собственное API. Вы можете свободно внедрять наши услуги на свои сервисы и в программы! После регистрации вам будет доступен API ключ и подробная инструкция запросов.

Ответить
Развернуть ветку
Turizm World

Мой личный опыт по тематике данной статьи. В своё время мне и моему коллеге поступали именно такие предложения, как указано выше, правда цена вопроса была не 15, а 20 тысяч. Я отказался от их предложения, а коллега воспользовался, как ему тогда казалось шикарными услугами, в итоге, примерно через 7-8 месяцев его сайт получил годовой бан от Яндекса. Похоже Яндекс через время вычислил существенную часть, тех, кто воспользовался дырой в его алгоритме и догнал их по тяжёлой.

На месте автора статьи я бы не акцентировал внимание, на том, что кого то жаба давила от потерянной возможности. Просто кто-то может понимать, что бесплатный, а в данном случае дешёвый сыр бывает только в мышеловке. Если основной трафик шёл из Яши, то после годового бана, доменом можно разве, что подтереться и всё начинать с 0!

Ответить
Развернуть ветку
Виктор Петров
Автор

Думается, там скорее ручные санкции, особенно если в конкурентной тематике с ВЧ-семантикой из ниоткуда вылезает в топы новый игрок, которого никто не знает, с посредственным сайтом и легко обнаруживаемыми аномалиями в трафике.
Самые хитрые годами держатся примерно в топ-9, и не попадаются.

Ответить
Развернуть ветку
1 комментарий
Turizm World

Я, это к тому, что Яндекс может долго запрягать, а потом быстро ехать. Яша, конечно не Гоша, но тоже кое-что умеет. Все те, кто сейчас крутят, через время могут пачками начать получать баны от Яши. В моей тематике тур-агентства практически все в тупую крутят ботов. Смотришь в выдаче Яндекса, кто в топе и диву даёшься. Захожу на сайт тур-агентства из топа, а там два абзаца текста, одна картинка, как он там оказался - 100% боты.

Думаю, что сейчас Яша допиливает свой алгоритм, а попутно собирает данные по накрутчикам, чтоб в итоге максимальное количество ботоводов и их пользователей гасануть.

Да, что там говорить, даже на кворк зашел, а там ботоводство всеми цветами радуги цветёт (написал им об их отмароженности, даже пригрозил, что Адвордс им забаню, мол ботоводы не должны юзать контекст, а они в ответ мне, мол мы не нарушаем авторские права и законы РФ, короче всё у них чин чинарём). Боты тур-агентств не вылазят с моего сайта стабильно под сезон там нагуливают себе ботов. Яшу уведомил, дал им расширенную статистику, сказали, что будут отслеживать злоумышленников. Крутят только высокочастотники типа Турция, Анталия. На 5 страниц ломятся боты, что в итоге около 40% всего трафа получается. При том только на 5 страницах нагуливают ботов, точно понимаю, кто это делает. Туры в Анталию с 1 июня думаю, хорошую прибыль тур-агентствам хорошие доходы будут давать, вот они предварительно и нагуливают на контентных сайтах себе ботов. 

Как-то мне Платон написал, что всех накрутчиков будет ожидать печальная участь. Лучше работать в белую, тогда точно сон будет здоровым.

Ответить
Развернуть ветку
Turizm World

Да, похоже Яндекс безнадёжен. Получил сегодня ответ о Платонов:

"Мы проанализировали ваш сайт, с ним всё в порядке, он ранжируется в соответствии со своей текущей релевантностью. Также мы проверили корректность работы алгоритмов ранжирования, и в вашем случае мы не видим проблемы, все факторы для сайта учитываются корректно. Каких-либо ограничений к вашему ресурсу не применяется.

Я понимаю вашу обеспокоенность сложившейся ситуацией, однако отмечу, что изменение позиций сайта не связано с подобной активностью на вашем сайте. Я попробую пояснить, с чем может быть связано изменение позиций.

Во-первых, корректировки наших алгоритмов. Это постоянный, автоматический процесс, основанный на машинном обучении Матрикснет. При этих корректировках постоянно уменьшается или увеличивается учет тех или иных факторов, и это, в свою очередь, может оказывать как незначительное, так и заметное влияние на позиции.

Во-вторых, сайт может проседать не только из-за подобных изменений алгоритма ранжирования, но и по естественным причинам:
- обновление поисковой базы, из-за которой в индекс попадают одни страницы и исчезают другие;
- контент на сайтах меняется;
- меняется релевантная страница с сайта и т. п.

В-третьих, работа других сайтов также не стоит на месте.

Мне очень жаль, но в сложившейся ситуации я могу лишь посоветовать вам не отчаиваться и продолжать работу над сайтом. Возможно, вам будут полезны наши рекомендации по наполнению и развитию сайта."

За такие ответы, желаю им участи Рамблера. Явно видно, что накрутка влияет, а они пишут ахинею. Страница в топе, но после ботовских топтунов она исчезает от туда, но у Яши всё нормально с алгоритмами.

Ответить
Развернуть ветку
Turizm World

https://habr.com/ru/post/223827/ - автора и всех комментаторов к стенке, активно обсуждают сволочи, какой шикарный эффект даёт накрутка ПФ в Яше. И отмароженный хабр, которому всё равно, что у него на сайте публикуют. Словить бы в реальной жизни пару тройку таких комментаторов, да подвесить на дереве за одно место.

Ответить
Развернуть ветку
Turizm World

Похоже Яндекс заинтересован в ботстве, отказался сегодня удалять из поиска отправленные мной ботоводские страницы с инструкциями по накруткам ПФ в Яндексе, поэтому решил я на гугловском форуме что-нибудь новое узнать, создал тему: тему: https://support.google.com/webmasters/thread/111196641/%D0%9D%D0%B0%D1%88%D0%B5%D1%81%D1%82%D0%B2%D0%B8%D0%B5-%D0%B1%D0%BE%D1%82%D0%BE%D0%B2?hl=ru

Пишут, что лучший вариант Cloudflare и, что Яндекс свои алгоритмы из-за ботства менять не будет, так что придётся нам как всегда свои проблемы, вернее дыры Яндекса закрывать собственными силами.

Ответить
Развернуть ветку
Vladimir Kulinenko

А зачем ты сюда постишь статьи а не себе на сайт? 

Ответить
Развернуть ветку
Виктор Петров
Автор

Разница в аудитории. Из поиска на сайт пойдут либо за накрутками, либо за защитой от накруток. А я ни то, ни то не предлагаю, это чисто информационный контент.
Кроме того, здесь его прочитает большее число людей - хостовые с моей записной книжицей никак не сравнить.

Ответить
Развернуть ветку
1 комментарий

Комментарий удален модератором

Развернуть ветку
Павел Горбунов

А как вы в логах отмечаете заходы ботов ПС?
может ли бот из разных регионов заходить в принципе?

Ответить
Развернуть ветку
Виктор Петров
Автор

Я делаю совсем просто: у меня Screaming Frog Log File Analyzer. Там при создании проекта можно выбрать, визиты каких UA вытаскивать из логов для анализа, и отметить галочку верификации. Гугловских ботов оно отличает хорошо. Яндекс-бота стабильно пишет в "спуфед".
Ну, и в общем, если есть сомнения - всегда можно сопоставить со списками официальных ботов, там список не такой большой: https://developers.google.com/search/docs/crawling-indexing/verifying-googlebot?visit_id=638217602891652090-2650329882&rd=1&hl=ru
https://yandex.ru/ips

Ответить
Развернуть ветку
1 комментарий
Andrei Tsay

Если вам нужно классическое SEO продвижение сайта, напишите нам https://dojo-media.ru/

Ответить
Развернуть ветку
146 комментариев
Раскрывать всегда