{"id":14276,"url":"\/distributions\/14276\/click?bit=1&hash=721b78297d313f451e61a17537482715c74771bae8c8ce438ed30c5ac3bb4196","title":"\u0418\u043d\u0432\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u043b\u044e\u0431\u043e\u0439 \u0442\u043e\u0432\u0430\u0440 \u0438\u043b\u0438 \u0443\u0441\u043b\u0443\u0433\u0443 \u0431\u0435\u0437 \u0431\u0438\u0440\u0436\u0438","buttonText":"","imageUuid":""}

Деньги из воздуха: растим SEO-трафик до 200к и делаем 1,8 млн рублей в месяц в контентном проекте

В этой статье я расскажу как дожимать до топа в Яндексе и Google в современных реалиях. Здесь будут представлены: специфическая ситуация по кейсу, практические данные по решению поставленных задач и свежайшие цифры. Поехали!

Дано

В начале года к нам обратилась блогерка с рядом задач по своему проекту. Помимо раскачки соц. сеток также велись работы по информационному сайту, но трафик стагнировал и конкуренты давили довольно сильно не чураясь черных методов.

  • Возраст домена: 1 год.
  • Тематика: курсы по детскому питанию.
  • Поисковый трафик в месяц: 130-150к уников.
  • Массовая негативная накрутка ПФ: прямые заходы, поддельный реферер, трафик с Яндекса.
  • Для негативного эффекта в Google конкуренты подклеивали токсичные дропы.
  • Массовое воровство контента с последующим размножением на множестве мусорных сайтов.

Самый кайф ниши в том, что курсы не нужно проводить в онлайне или офлайне, они все сделаны в записи и их активно покупают новоиспеченные родители. А это значит, что при увеличении поискового трафика будет наблюдаться прямо пропорциональная корреляция по $ в кассе.

Воронка выглядит так:

  • Родитель ищет информацию в поиске Яндекса/Google по информационным запросам.
  • Попадает на посадочную страницу сайта с раскрытием тематики.
  • В статье расставлены баннеры с CTA купить продвинутый курс.
  • При клике идет перенаправление в чат-бота, автоматизированная оплата и отгрузка платного контента.

Схема простая и идеальная. Всё, что связано с детской тематикой - это вечнозелёные темы. Дети рождаются и будут рождаться постоянно. Приток новых родителей, которые создают поисковый трафик, был и будет постоянный. В тематике относительно много трафика и есть где развернуться. Там есть деньги, поэтому конкуренция достаточно жесткая.

Выстраивая план работ мы учли, что не имеет никакого смысла достраивать дом, пока он горит. Иными словами - нет смысла причесывать внутреннюю оптимизацию, работать с контентом и ссылками, пока не устранены внешние негативные факторы, мешающие развитию проекта.

Основная работа по проекту

  • Защита сайта от негативной накрутки и конкурентной разведки.

Негативная накрутка поведенческих факторов крайне отрицательно сказывается на дальнейших перспективах проекта. Ранее для защиты сайта мы использовали два барьера защиты: Cloudflare и AntiBot.Cloud.

От Cloudflare было решено отказаться, так как весь год идут веерные блокировки сайтов в рунете, и очень велик шанс, что общий ip Cloudflare может попасть под раздачу. Сменить ip-адрес в Cloudlfare можно только на премиум-тарифах через техподдержку.

Проект Antibot развивается и на данный момент является лучшей защитой от паразитного трафика, а так же парсеров и сервисов по анализу сайтов. Сразу после установки и настройки фаервола с пачкой кастомных правил негативная накрутка ПФ была устранена.

Наиболее ярко выражено это видео по прямым заходам:

Устранение негативной накрутки ПФ - прямые заходы ботов.

Большинство пользователей с белыми fingerprints, cookies и ip проходят проверку автоматически и не замечают работы фаервола. Подозрительным пользователям и ботам показывается окно в выбором цвета:

Окно проверки визита на автоматизированный запрос.

Поведенческие боты, парсеры и средства конкурентной разведки фильтруются замечательно и не могут получить доступ к проекту. Яндекс.Метрика таких ботов также не видит, в cookies бота будут отсутствовать записи о посещении сайта.

При анализе статистики мы получаем исчерпывающие данные по посещениям, включая ip, заголовки, рефереры. Вся эта информация в дальнейшем используется для выявления сайтов, которые воруют контент через парсинг в автоматическом режиме, и более тонкой настройки блокировок на уровне веб-сервера.

Статистика по топовым заблокированным ip адресам в админке фаервола.

С таким фаерволом мы обеспечиваем:

  • защиту от поведенческих и спам-ботов;
  • защиту от любых парсеров (прокси, http-заголовки и user-agent не имеют значения);
  • защиту от фейк-ботов с user-agent как у официальных роботов поисковых систем;
  • защиту от проксирования сайта дорвеями;
  • проверку ботов по PTR-записям;
  • снижение нагрузки на веб-сервер.

При этом Antibot не препятствует нашим ботам для положительной накрутки ПФ. Для этого перед переходом на сайт из Яндекса наши боты переходят сначала на секретный url с php скриптом, где каждый бот получает секретный cookie-ключ. Далее боты производят нужные манипуляции на сайте и значительно улучшают поведенческие факторы.

Защита от конкурентной разведки - так же большое преимущество, особенно в контентных проектах. Теперь проанализировать автоматически сотни страниц с контентом не получится, фаервол заблокирует все попытки, и конкурентам придется ковырять всё это в ручную, что доставляет максимальные неудобства.

  • Ищем сворованный контент и вычищаем его из результатов поиска.

Дубли одного и того же контента негативно сказываются на ранжировании в поисковых системах. Нередки случаи, когда более трастовый сайт с украденным текстом ранжируется выше оригинала.

Для поиска сайтов, которые украли тексты с продвигаемого проекта достаточно использовать программу eTXT Антиплагиат. Далее получаем список точных url и готовим подробные заявления в Google и Яндекс.

В Google - создали новое заявление через специальную форму. Специалист отдела DMCA реагирует достаточно быстро. Они выявляют первоисточник и удаляют из результатов поиска воришек. Могу запросить дополнительную информацию в тикетах.

В Яндексе - создали тикет о нарушении авторских прав через форму. Платоны реагируют немного медленнее и неохотнее. Был прецедент, когда присылали отписку. В этом случае намёк на судебное разбирательство ускоряет процесс.

Для исключения проблем с воровством контента мы настроили быструю индексацию новых страниц через Google Index API, а в Яндексе достаточно молниеносно добавлять новые или обновленные url на переобход в Яндекс.Вебмастер.

В результате: сайты с копипастом в Google вообще пропали из результатов поиска, а в Яндексе они были на 2 странице, но после обращения в поддержку и пару апдейтов сползли в небытие.

Теперь с фаерволом украсть контент можно только вручную, что немного трудоёмко, особенно если нет специальных знаний. Рекомендую периодически следить не своровали ли с вашего сайта ваш контент и своевременно обращаться за помощью в поддержку поисковых систем.

Это может быть причиной стагнации или отсутствующего роста.

  • Ищем токсичные ссылки и просим Google не учитывать их.

Бытует мнение, что токсичные бэклинки вообще можно не чистить, и Google сам решает какие ссылки учитывать, а какие нет. И это мнение имеет место быть на практике.

Однако, для стопроцентной уверенности, лучше всего выявить мусорные ссылки и принудительно запретить их через Disawov Tool.

Для анализа ссылочного профиля лучшим инструментом является Ahrefs и я им пользуюсь на постоянной основе.

Анализ ссылочного профиля в Ahrefs.

Довольно быстро можно сообразить какие данные лучше выгрузить в файлик.

В качестве второго сервиса для поиска токсичных url мы используем Semrush. В нем присутствует метрика Toxic Score. Чем выше параметр в диапазоне от 0 до 100, тем хуже ссылка.

Анализ backlinks toxic score в Semrush.

Здесь так же можно быстро сориентироваться и подготовить уже готовый файл для Disavow Tool.

После загрузки файла мы даём Google рекомендации, какие ссылки не хотим учитывать для нашего домена. При регулярном обновлении файла Google обучает свой алгоритм и в дальнейшем с большой вероятностью не будет учитывать мусорные бэклинки в автоматическом режиме.

  • Устраняем внутренние технические проблемы с сайтом.

После полного сканирования сайта SiteAnalyzer'ом были исправлены: дубли страниц пагинации, дубли контента по разным url (особенность cms), дубли страниц с параметрами.

Всегда стоит проверять какие сайты еще размещены на ip-адресе веб-сервера хостинг провайдера. Среди соседей мы обнаружили гэмблинг, бады и адалт сайты. Было решено переехать на выделенный ip-адрес через заявку в техподдержку.

  • Устранение проблем с индексацией сайта.

В Яндексе и Google количество страниц в результатах поиска по сайту может отличаться. Это говорит о возможных проблемах в той или иной поисковой системе.

Чтобы быстро проверить индексацию мы используем софт SimpleWebAnalytics. Он получает данные по API и имеет функционал экспорта для дальнейшего анализа. Можно быстро определить не только статус индексации, но и мета-теги, применились изменения или нет.

Проверка индексации сайта в программе SimpleWebAnalytics.

Были выявлены проблемы с индексацией в Яндексе, некоторые страницы попали под МПК фильтр. Решением была накрутка ПФ по определенным сценариям с посещением проблемных страниц. Через неделю после апдейта страницы начали ранжироваться. Данный метод работает в множестве проектов.

Чтобы не допускать отвала страниц мы проектируем внутреннюю перелинковку и следим, чтобы нужные страницы получали достаточно поведенческих факторов.

  • Контроль скорости работы страниц сайта.

В коммерческом проекте скорость работы сайта является важным параметром. Важно, чтобы каждая страница открывалась не более чем 3 секунды. И лучше всего, чтобы была хотя бы в жёлтой зоне PageSpeed Insights. На самом деле это уже перфекционизм. В рунете спокойно ранжируются в топе Google сайты с красной зоной по скорости работы.

Для контроля скорости работы страниц сайта, а также соответствия требованиям PageSpeed Insights, мы используем софт BulkPageSpeed.

Массовая проверка скорости работы страниц сайта.

Зачем проверять вручную сотни и тысячи url? Пускай это будет автоматизировано. Всё что нам нужно - получить API ключик в Google.

  • Ресерч семантики.

Всю работу с семантикой мы поделили на два блока: актуализация внедренной семантики и внедрение новых кластеров. Для этого мы используем keyword research tool от Ahrefs. В нем есть самая полная и крутая база под Google и не менее крутая для Яндекса.

Можно использовать Keys.so или что-то подобное, не суть важно, алгоритм работы плюс минус одинаковый.

В итоге текущую семантику расширили на 3600 фраз и собрали новую на 5900. Далее всё сводится в единый файл с кластеризацией и мета-тегами.

Структура сайта, ключевые слова, мета-теги.

В нем же даны рекомендации по общей структуре сайта и приоритетам для оптимизации новых статей и оптимизации текущих.

  • Прочие работы.

Ведется большая работа по наращиванию ссылочной массы для проекта, так как по аналитике из Google больше всего конверсий и трафика. Работа с копирайтингом достаточно заурядная и сводится к составлению ТЗ и дальнейшей проверке готового текста от копирайтера.

Результаты

Основным результатом для информационного проекта является динамичный рост трафика с последующей монетизацией.

Было: падающий тренд, ~150 000 уников с поиска в месяц..

Стало: растущий тренд, более 200 000 уников в месяц с поиска.

Конверсия в оплату: 0,23%.

Продаж в месяц: ~260.

Чистая прибыль в месяц: ~ 1 800 000 рублей.

Динамика SEO-трафика.

Что влияет на результат?

  • постоянное добавление нового контента;
  • периодическое обновление контента;
  • активная защита от ботов и парсеров;
  • хорошие ПФ;
  • положительная динамика по росту ссылок;
  • контент дорогой и экспертный;
  • слаженная системная работа по SEO.

В скором времени будет апдейт этого кейса, так как за счет большого потенциала в нише по нашим прогнозам трафик в течении года удвоится.

Другие статьи:

0
17 комментариев
Написать комментарий...
Виктор Петров

Отличный кейс, спасибо за освещение процесса. В названии стоило бы сделать акцент на защите проекта от негатива: история достаточно распространенная, а кейсов по рунету в доступе - мизер. За два года на что только не насмотрелся в этом плане - вплоть до блокировок операторов связи, поисковых роботов и целых регионов.

Ответить
Развернуть ветку
Артем Акулов
Автор
до блокировок операторов связи, поисковых роботов и целых регионов.

Да это смешно)))

Ответить
Развернуть ветку

Комментарий удален автором поста

Развернуть ветку
Рома Кунашко

Антибот выглядит как космическая дрянь, с белого айпи даже капчи не предлагает

Ответить
Развернуть ветку
Виктор Петров

Что значит "с белого"? В режиме паранойи люди целые страны блочат.

Ответить
Развернуть ветку
Рома Кунашко

Белый значит что адрес:
- не находится ни в каких блэк/спам/скам листах
- не использует тор/впн/прокси
- не принадлежит датацентрам и тд, а лучше если принадлежит оператору связи

В этом случае в 90% за этим адресом сидит человек, а не робот. И фрод риск такого айпи минимален

Ответить
Развернуть ветку
Виктор Петров

Ну вот тот же Яндекс так не думает. И я уже не говорю про владельцев сайтов

Ответить
Развернуть ветку
Артем Акулов
Автор

Можно выставить жесткие настройки - неверный выбор цвета -> бан на N дней. Разные конфиги возможны.

Ответить
Развернуть ветку
Александр Воловиков

А что 20 долларов зажали из 1 800 000 рублей на Cloudflare? Тогда нужно еще дописать, что вдруг на сервере будет негативное соседство и заказать за 150 рублей отдельный ip.

Ответить
Развернуть ветку
Артем Акулов
Автор

У клауда есть cdn points в России, за счет чего можно хорошо ускорить сайт, но это доступно в тарифе от $200 в месяц. Проект не того уровня, чтобы за это платить. PRO тариф подключать не вижу вообще никакого смысла. Выделенного ip для изоляции на хостинге вполне достаточно. Соседи могут влиять на продвижение в Google. Давно проверено. Яндексу на это фиолетово. Основной упор на Google, там выше ctr, чище трафик и больше конверсий.

Ответить
Развернуть ветку
Александр Воловиков

Не соглашусь с Вами во всем. Первое, тарифный план про за 20 у.е. подразумевает борьбу с ботами (фото ниже). А увеличить скорость с помощью CDN Вы на любом тарифе будете оплачивать по трафику.
Что касается соседства по ip-адресу. Никто не замечал такую штуку, что если запрос вылез в ТОП Яндекса, то через недельку другую он будет в ТОП Гугла? Почему так происходит? Ответ простой конкуренция и борьба за пользователя. Если в Яндексе на 1-ом месте, в худшем случае в Гугле на 5-10-ом. И наоборот. Вопрос в другом, как быстро они это делают? Бывают с опозданием мониторят друг друга, но бывает и очень быстро меняют позиции. А причем тут ip-соседство? Да на соседство положили болт тогда, когда есть движение у конкурента. По сути, если есть понижение в позиции в Гугл, то при условии, что и в Яндексе опа.
И еще, не стоит думать о соседстве, если в Яндексе есть быстрые страницы, а в Гугле их нет. В яндексе нет ошибок, а в Гугле полно. Если делать равноценные условия, то и позиции +/- 5 строчек будут.

Ответить
Развернуть ветку
Артем Акулов
Автор

Совершенно не важно согласен ты или нет. Сначала попробуй купить тарифную линейку и попользоваться, а не диванной экспертизой заниматься. Super bot fight mode не помогает от поведенческих ботов, арго вообще не нужен на ненагруженных проектах.

Никто не замечал такую штуку, что если запрос вылез в ТОП Яндекса, то через недельку другую он будет в ТОП Гугла?

Вот с этой бредятины и все что ниже я вообще афигел, даже комментировать не буду, пусть у тебя будет так.

Ответить
Развернуть ветку
Александр Воловиков

"тыкать" будешь своим клиентам. Хамло.
Может ты и математик хороший, но в СЕО одной математики мало. Маркетолог с тебя никакой.

Ответить
Развернуть ветку
Александр Воловиков

Планы по трафику.

Ответить
Развернуть ветку
Виктор Петров

А что с соседями? На виртуальном хостинге это может быть проблемой, но больше для технички. С негативным влиянием на ранжирование я не сталкивался. Есть такое?

Ответить
Развернуть ветку
Александр Воловиков

нет, на СЕО это не влияет. В этом и сарказм. По техничке должно быть возможность изолировать сайт, в случае заражения сайта-соседа вирусом.
Но миф в интернете летает давно...

Ответить
Развернуть ветку
Виктор Петров

Там, насколько я понимаю, очень от хостера зависит - распределения прав и т.п. Если шелл зальют - там и вирусня может быть, и что угодно.

Ответить
Развернуть ветку
Александр Воловиков

так и есть. Спринтхост такую опцию предоставляет пользователям, если необходимо. Не знаю, как у других.

Ответить
Развернуть ветку

Комментарий удален автором поста

Развернуть ветку

Комментарий удален автором поста

Развернуть ветку

Комментарий удален автором поста

Развернуть ветку
14 комментариев
Раскрывать всегда