{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Накрутка поведенческих факторов в Google. Личный опыт

Всем привет. Предыдущие две моих статьи (раз, два) про накрутку поведенческих факторов в Яндексе получили положительный отклик, а также ряд вопросов по поводу ситуации в Гугле.

Я не считаю себя специалистом по пониманию принципов ранжирования Гугла, но периодически экстраполирую туда свои эксперименты с Яндексом и смотрю что из этого выйдет.

Данный эксперимент построен на 2 схемах которые отработаны мною в Яндексе и 1 схеме о которой рассказал Михаил Шакин (видео).

Во всех трех схемах накрутка длилась около месяца. Количество сайтов в каждой схеме, в отличии от статей про Яндекс, было сокращено до одного. В случае моих схем я сократил выборку намеренно, т.к убежден многолетней практикой, что это работает в Яндексе. В случае схемы Михаила, потому что у меня почти нет проектов в бурже где не проводились бы дополнительные работы по оптимизации/закупке ссылок. Подходящий пациент попался лишь один. Делать выводы по 1 проекту — крайне глупо, но суть статьи в "поделиться опытом”, а не рекламировать "историю успеха".

А вот свой тг-канал “SEO для роботов” прорекламирую. Подписывайтесь.

Цели эксперимента:

  • Проверить работает ли накрутка ПФ в Гугл с помощью трех различных схем
  • Выявить особенности накрутки ПФ в Гугл по сравнению с Яндексом
  • Сделать выводы и применять в дальнейшей работе

Дано:

Три сайта (оценку контента на сайтах можно считать как Полезный):

  • Информационный портал (ру, тематика финансы)
  • Коммерция (ру, тематика финансы)
  • Коммерция (US)

Три схемы накрутки:

  • Собственная сетка для накрутки которая отлично решает задачу в Яндексе на НЧ-СЧ запросах.
  • Схема с паблик сервисами из предыдущих статей
  • Схема Михаила Шакина с заданиями на microworkers.com и аналогах.

Ход эксперимента:

Первый пациент

Информационный портал (ру, тематика финансы). Выбран кластер запросов с общей частотностью до 10 000 показов. Все запросы кластера находились между 10 и 25 позицией. Идеальный кандидат для накрутки ПФ в Яндексе — 1-3 дня до топ 5.

Параметры накрутки: равное количество переходов каждый день (+/- 10%) на самый частотный запрос из кластера. Накрутка началась 6 марта.

Действуем по тупому, Яндекс это любил, Яндексу все равно. В топ залетает почти сразу и сразу же подключаются живые переходы, поэтому здесь я также не парился.

Что в итоге:

https://t.me/seo4robots
https://t.me/seo4robots

10 марта после скачка основного запроса на 12 место, я радостно потер руки и сразу же подключил в работу еще один кластер запросов по аналогичной схеме.

https://t.me/seo4robots

Промежуточные выводы:

  • Никакого видимого и долгосрочного эффекта от накрутки эмуляцией действий пользователей в данном эксперименте не было.
  • Возможны изменения позиций в плюс в первые дни накрутки.
  • Возможно, что в отличии от Яндекса, накрутка позиций в Гугле привязана к запросу, а не к документу. Так как заметное изменение было только на накручиваемом запросе. (У Яндекса — резкий рост всего кластера)

Второй пациент:

Коммерция (ру, тематика финансы). Меняю схему, учитывая, что в предыдущем варианте единственный скачок позиции случился в первый день. Берем кластер с общей частотностью 2500. Запросы кластера между 10 и 25 позицией.

Параметры накрутки: Крутим все запросы кластера по возрастающей (каждый день добавляем число переходов)

Что в итоге:

https://t.me/seo4robots

Промежуточные выводы:

  • Не получено никакого результата при постепенной накрутке ПФ.
  • Возможно, что Гугл полностью фильтрует выбивающийся из медианных значений CTR за топ 10?
  • Учитывая отсутствие у Гугла “однорукого бандита”, возможно, что вариант с накруткой ПФ за топ 10 - изначально провален.

Третий пациент

Коммерция (US). Кластер с общей частотность до 2000. Истории запросов нет.

Параметры накрутки: Крутим с помощью заданий первые два запроса из кластера по возрастающей (каждый день добавляем число переходов).

Что в итоге:

https://t.me/seo4robots

Общие выводы:

  • Скорее всего Гугл фильтрует накрутку с помощью эмуляции пользователей.
  • Скорее всего Гугл фильтрует накрутку запросов находящихся за топ 10.
  • В отличии от Яндекса, поведенческий фактор в Гугле привязан к запросу, а не к документу.
  • В отличии от Яндекса, где сайты можно двигать только с помощью ПФ, в Гугле это невозможно (либо очень сложно)
  • В отсутствии санкций за накрутку в Гугле, ее пока что можно безопасно использовать как вспомогательное средство для подталкивания сайта в топ 3.

Всем спасибо. Подписывайтесь на мой телеграм канал.

0
52 комментария
Написать комментарий...
Сергей Игоревич

Любопытный эксперимент, спасибо.
Непонятно, что мешает Яндексу также быть стойким к накрутке поведенческих: сколько людей уже про это узнало, сколько в открытом доступе "кейсов" и всё равно никаких действий они не предпринимают.
До этой статьи думал, что им просто это технически сложно, но если Гугл мог, то я вообще причин не вижу

Ответить
Развернуть ветку
Александр Кожевников

Поведенческие факторы всё ещё улучшают выдачу Яндекса. Когда в ТОП 10 останется только бред и пользователи пойдут в Гугл, тогда их влияние уменьшат.

Ответить
Развернуть ветку
Виктор Петров

А какова альтернатива?
Для продвижения в Гугл можно прикупить дропчик, собрать сеточку, или не парясь - тоннами ссылочное, даже самое дурное. Большим проектам не жаль вваливать в ссылочное сотни тысяч рублей в месяц, это не шутки. Как вы сможете с ними тягаться, если вы - малый бизнес или совсем молодой сайт?

Ответить
Развернуть ветку
Данил Дудник

Ссылочное крутить дольше и дороже. Соответственно, скама и однодневок меньше. Вы говорите, как малому бизнесу конкурировать с крупными сайтами? А с чего вы взяли, что должны быть равные возможности? У крупного бизнеса есть бренд, история и тд. Он действительно более надежный. Я не считаю справедливым, что кто угодно может пролезть в топ яндекса с новорега накруткой, скручивая при этом конкурентов (по другому ботов не нагуляешь).

Бороться можно — прорабатывать семантику, юзабилити и делать скоринг запросов (т.е. бороться не за самые сочные запросы, а за те, где лучше баланс конкуренция/прибыль).

Зато в гугле нет засилия агрегаторов и локальный бизнес из-за этого может взять свою выдачу, если работает давно. Причем при минимальной оптимизации. Особенно в YMYL

Ответить
Развернуть ветку
Виктор Петров

Вы подменили термин: большой проект или просто старый сайт - не обязательно большой бренд. Просто застойность выдачи Гугл сильно снижает шансы молодого бизнеса получить свой кусочек пиццы. Возраст же хоста добавляет авторитетности сайту только в глазах Гугл - на этом и держится ценность дропов.
Всё это напоминает какие-то криминальные войны начала 90-х. Авторитетные воры в законе там, молодые и борзые рэкетиры здесь. И что делать небольшому семейному кооперативу? 

Ответить
Развернуть ветку
Данил Дудник

Хорошо, давайте рассмотрим только нюанс того, что Google отдает предпочтение старым сайтам. Вы говорите, молодому бизнесу сложнее пробиться в Google. Так и есть. А с чего молодой бизнес, не зарекомендовавшей себя, должен высоко ранжироваться в конкурентных нишах?
Сейчас бизнес, если он может привлекать трафик из интернета посредством сайта, делает сайт сразу. С точки зрения пользователя это очень хорошо, когда выдачи бизнес, которые уже работают несколько лет. А то, что новому бизнесу без серьезных УТП сложно конкурировать с крупными действующими игроками – норма, причём не только в вебе, а где угодно в принципе.

Давайте рассмотрим конкурентную тематику в Яндексе. Да, молодой сайт в Яндексе может выбиться в топ за несколько месяцев. Но если это конкурентная тематика, то этот сайт выжгут скруткой поведенческих факторов, как только он зайдёт в топ три по высокочастотным запросам. И по всему кластеру или даже домену сайт может просесть. Зато топ за неделю могут занять любые скамеры и после бана откручивать новый новорег.

Сама по себе доступность вывода новорегов в топ позволяет вебмастерам тестировать серые и черные схемы за неделю. Из-за этого брешей обнаруживается намного больше, чем в Google за тот же период времени.

Да, дропами за многие месяцы можно занять топ в конкурентой тематике гугла. Но это не вредит другим проектам. Пбны палятся и, насколько, я знаю иногда с помощью конкурентов.

В яше топ в кокурентой тематике сидит с накруткой. Накрутка будет скручивать ваши сайты для нагуливания ботов. Если накрутку спалят, они будут крутить ещё, ведь скиллы, бюджеты и фермы уже есть.

Ответить
Развернуть ветку
A A
Автор

+1. 
Выдача в кириллическом сегменте Гугла проигрывает Яндексу. А обратная сторона накрутки поведенки, это накрутка ссылочного. Отключат одно, начнут крутить другое. 

Ответить
Развернуть ветку
Данил Дудник

Выдача гугла действительно проигрывает. По монетизации. Весь экран (!) выдачи по информационному (!) запросу забит коммерческим сервисом яндекса, игнорируя (!) сам запрос.

Ответить
Развернуть ветку
Чайка О.

У меня не так печально.
Кстати, запрос не совсем информационный. В ТОП-10 Гугл есть 4 коммерческие страницы (с описанием продукта и его ценой).

Ответить
Развернуть ветку
Данил Дудник

У меня коммерческий проект по фин тематике в рф в гугле в топ 3 по самому жирному кластеру запросов во всех городах, кроме мск. Ссылочный бюджет там меньше ста тысяч. Агрегаторов почти нет, конкурируешь только с банками, мфо и тд. У них хостовые сильные, но оптимизации нет. Они мордой и разделами хавают самые очевидные ключи и то не все. Зайди с нормальной кластеризацией и можно в гугле без ссылочного конкурировать даже в конкурентных YMYL тематиках. В мск тоже можно только за счёт кластеризации выезжать, но не по самым очевидным запросам, там скоринг нужен.

Ответить
Развернуть ветку
Сергей Игоревич

Добрый день, Виктор. Всегда уважаю ваше мнение, давно читаю, но "альтернатива" звучит как "выбери что-то одно, или/или", в то время как у поисковиков есть сотни причин (факторов) ранжировать сайт на какой-то позиции: отчасти ссылки, отчасти поведенческие, отчасти техническое состояние, скорость, вовлеченность (взаимодействие с сайтом и контентом, а не только отказ-не отказ и время на сайте), качество контента и прочие и прочие.

Можно поэкспериментировать с формулами, сделать разные факторы более равнозначными: чей-то вес увеличить, чей-то уменьшить. Такое уже случалось и в разное время алгоритмы менялись, поменяются еще. Почему не сейчас и почему бы не уменьшить влияние поведенческих в их "шаблонном" формате.

Ответить
Развернуть ветку
Виктор Петров

Так ведь яндексоиды пытаются. Не получается. Закрывают одну дырку - тут же обнаруживается другая, ещё более дурацкая.
Суть в том, что алгоритмы и Гугла, и Яндекса никогда не меняются на корню - они масштабируются и трансформируются. Старые метрики не отваливаются - они выступают фундаментом. В основе накруток ПФ лежит одна такая "коренная метрика", которую просто так выдернуть нельзя - это фундамент. Пока она остаётся частью фундамента - будут накрутки, просто будет меняться их алгоритм.

Ответить
Развернуть ветку
Александр Кожевников

Альтернатива - утки) А если серьёзно - Яндекс пытается выехать на факторах, которыми легко манипулировать. Ранжировать сайты на основе сложноманипулиремых факторов он не хочет, вот и альтернативы у него получается нет. Хотя по моему они вышибают из выдачи самых тупых накрутчиков. И про дропы и сетки. Бюджет накрутки поведенческих от 30к на несколько месяцев. Хороший дроп от 10к + восстановить, отлежаться и не факт, что поможет. Сетку создать - тоже нужно уметь, нормальные статьи + разместить от 10к + прогреть спамными ссылками + ещё от 10к. Гугл гораздо геморней и продвигать, и накручивать.

Малому бизнесу СЕО не нужно. ИМХО СЕО нужно если у бизнеса есть от 0,5М на контекст в месяц.

Ответить
Развернуть ветку
49 комментариев
Раскрывать всегда