Самые досадные ошибки при сборе инфотрафика в 2024 году

К сожалению, ко мне все чаще приходят за консультацией, когда инфосайт уже запущен, деньги потрачены, почки отказали, а трафика нет. Начинаю задавать вопросы о монетизации и позиционировании. Из ответов понятно, что это планировалось решать в процессе. Такие слова, как контент-стратегия, семантическая структура, владельцы вообще часто слышат впервые.

Самые досадные ошибки при сборе инфотрафика в 2024 году

Последний пример из жизни. Пришли люди, которые сделали сайт все обо всем – от борща до стартапа. Написали 3500 статей и новостей. Купили дорогой домен, зарегистрировались как СМИ, оформили товарный знак. Ждут трафика почти год. Трафика нет.

Диагноз:

1. Размазана тематика, нет сематической структуры.

2. Большое количество «быстропортящихся» новостей для молодого сайта, которые съедают краулинговый бюджет, не принося трафика из поиска.

3. Статьи неинформативные, неоптимизированные под поисковые запросы. Точнее, в статистику запросов даже не заглядывали – в статьях часто даже не упоминаются важные ключевики, которые у всех конкурентов из топ-10 прописаны в h2.

Рецепт:

1. Сфокусироваться на одной тематике и копать вглубь. После полной выборки семантики можно переключаться на смежные. Кулинарию, автотематику сразу в топку – выжженные ниши.
2. Делать статьи, строго учитывая статистику поисковых запросов. Улучшить их форматирование. При создании текстов ориентироваться на статьи в топе, но делать еще лучше и более разнообразное форматирование.
3. Делать циклы статей, линкуя их между собой.

На самом деле, когда человек уже вложил несколько миллионов в проект, он не готов признавать, что это все напрасно и надо просто зафиксировать убытки и начать все практически с нулевой точки. Проще и дальше упорно биться о твердь беспристрастных поисковых роботов в надежде когда-нибудь заполучить от них симпатию.

С момента консультации прошло 2 месяца – на сайте все те же вареники, мужские измены и отдых в Турции. Статьи не оптимизированы под поисковые запросы. Владелец убежден, что на сайте некий мифический теневой фильтр поисковиков. Ну так, по сути, и есть. Сам процесс ранжирования – это фильтрация результатов по качеству и релевантности. Некачественные и нерелевантные отфильтровываются. Это и есть фильтр.

А чтобы вы не повторяли чужих ошибок, я решил описать ключевые ошибки при сборе инфотрафика. Мы в Teksty.ru активно занимаемся получением информационного трафика из поиска с 2015 года, и я знаю, о чем говорю. Более того, чтобы четче сформулировать свою мысль, я ее проиллюстрирую в контексте эволюционирования роботов и контента.

Итак, несколько важных мыслей, которые, я уверен, уберегут многих от бессмысленных трат.

1. Конкуренция и фильтры поисковиков

Сейчас не 2010 год, когда практически любой сайт на более или менее вменяемом контенте мог получать ощутимый трафик. Да даже 5 лет назад можно еще было вполне успешно делать сайты для CPA и выходить в плюс. Вот, например, мы с нуля за год вывели сайт по продаже авиабилетов на трафик в 150 тыс. посетителей в месяц. Он окупал вложения. И это не было чем-то сверхъестественным. Если сайт был изначально с историей, трафик прилетал еще быстрее, как, например, вот в этом примере.

Но сейчас количество инфосайтов выросло стократно. Все ринулись собирать безграничную лесную ягоду инфотрафика. При этом интернет-аудитория уже не растет так лавинообразно, как 10 лет назад.

Сейчас все вышло на плато. В борьбу за инфотрафик сильно впряглись дорвейщики, которые уже давно выросли из школьных штанишек и научились делать очень качественные сайты с генерируемым или переводным контентом. В общем с этого огромного океана инфотрафика качали деньги все, кто мог хоть как-то освоить основы SEO и веб-разработки.

Такая высокая конкуренция привела к тому, что океан начал мелеть, и уже примерно в 2020 году делать исключительно инфосайт с целью заработка на рекламе и партнерках становилось все менее и менее прибыльным делом. В итоге количество клиентов, которым мы вели инфосайты, начало стремительно уменьшаться. Сейчас все наши клиенты – это исключительно коммерческие компании, ведущие блог на своем сайте. Здесь это еще имеет смысл.

Но самый масштабный обвал трафика на инфосайтах произошел после запуска ChatGPT. Одновременно с ростом количества контента в интернете мы увидели, как поисковики просто ужесточили свои алгоритмы для чисто контентных сайтов. Особенно сильно досталось новым сайтам. Старые сайты из уверенного роста перешли в спад или стагнацию. И, скажу я вам, это очень разумное решение поисковиков, которое позволило без затрат ресурсов на анализ ИИ контента сохранить качество выдачи на приемлемом уровне.

Перед тем как создавать инфосайт, вы должны реально понимать, какую жесточайшую конкуренцию и предвзятое отношение поисковиков вам придется преодолеть. Но, к сожалению, многие предприниматели, вдохновленные успехом того же povar.ru, просто делают такой же сайт в надежде выйти на аналогичный трафик. Чтобы повторить успех того povar.ru, надо было создавать его аналог 20 лет назад. Сейчас уже поздно.

Конечно, создать успешный инфосайт все еще возможно, но он должен быть гораздо более качественным, чем те, которые сейчас сидят в топе.

2. Контент-стратегия

Перед тем как у вас зародилась мысль сделать инфосайт, вы должны продумать до мелочей фундамент вашего проекта:

  • тематика сайта;
  • монетизация;
  • подробная семантическая структура;
  • перелинковка.

В итоге у вас всегда будет ответ, что, когда и зачем вы делаете в каждый конкретный момент времени. В идеале ваш блог должен быть придатком к уникальному сервису. Тогда вы получаете лучшие поведенческие и лояльность поисковиков, так как очевидно, что у вас серьезный проект, а не дорвей.

3. Поисковые запросы

Как ни прискорбно это говорить, но даже сейчас, когда все вроде бы знают о том, что такое релевантность, ключевики и статистика поисковых запросов, техзадания для авторов часто даже не содержат структуры. Исполнители идут самым простым путем – просто пичкают ТЗ для автора бессмысленными метриками из разряда Тургенева, Главреда, спамности, уникальности, окончательно убивая релевантность и здоровый слог в тексте. Почему проверялки убивают текст, я писал здесь.

Поисковые запросы все так же надо собирать, кластеризировать и делать из них качественное уникальное техзадание для автора. Именно качественное ТЗ и формирует уникальный текст с уникальной структурой. Без ТЗ автор просто сделает рерайт одной статьи, которая будет в глазах поисковиков копией, даже несмотря на то, что в проверялках будет 100% уникальность. Поисковикам плевать на циферки уникальности от text.ru, у них иные алгоритмы.

Рецепт успешного привлечения трафика на сайт

1. Блог находится на коммерческом сайте. Да, это очень важное условие, вытекающее из предвзятого отношения поисковиков к возросшему количеству сайтов на ИИ. Мы заметили, что даже не очень трастовый коммерческий сайт легко получает топ-10 в течение нескольких недель по инфозапросам.

2. Учет статистики поисковых запросов.

3. Написание статей циклами. Когда вы пишете цикл статей на одну тему, вы взаимно усиливаете их перелинковкой и повышенной релевантностью.

4. Качество текста. За метриками многие забывают о том, что текст пишется человеком для человека, поэтому он должен быть без воды, стилистически выверенным и легко читаемым. Для этого, кроме хороших авторов, вам понадобится опытный редактор. При хорошем редакторе вам не понадобятся никакие проверялки, которыми часто пытаются заменить человека. Хороший редактор задаст нужный уровень и дотянет авторов.

5. Форматирование. Это не просто важный фактор ранжирования, а еще и хорошие поведенческие. Таблицы, списки и иллюстрации - это уже обязательный атрибут страницы из топа поисковой выдачи.

О таких вещах, как базовое SEO и техническая оптимизация, писать не буду. Думаю, это и так очевидно.

На самом деле инфотрафика все еще очень много, и его можно и нужно добывать. Главное – делать это правильно и сразу закладывать в свою контент-стратегию надежный фундамент. Профилактика всегда дешевле лечения.

Если возникли вопросы по контенту, можете писать мне в телеграм.

44
5 комментариев

Написание статей циклами. Когда вы пишете цикл статей на одну тему, вы взаимно усиливаете их перелинковкой и повышенной релевантностьюПо всем пунктам плюсану, кроме, пожалуй, вот этого.
Дело не в цикличности как таковой, и не в перелинковке даже. Просто если сайт продаёт сковородки, на нём хорошо зайдут статьи на тему отличия сковородок из чугуния от сковородок из нержавейки. Но не надо статей на тему "как жарить картошку" - это другая тематика, в ней ловить нечего. ПС выгодно держать в "быстром индексе" (условно) те сайты, где тема выражена максимально полно и толково, без необходимости для ползателя постоянно скакать на другие сайты для уточнения информации.
Ну, и по релевантности: там математика. Для перелинковки чисто на числах могут быть отобраны самые неожиданные материалы - по семантической близости, не логике и не формату контента. А много I-узлов не создашь.

1

Ну естественно, что при создании циклов должна быть соблюдена семантическая структура, которая уже пляшет от тематики, о чем я и писал выше.

Кроме того, перелинковка создает анкоры, которые тоже являются ключевиками и усиливают релевантность, так называемым "облаком тегов", которое пропагандирует тот же Маркин.

Ну и плюс перелинковка создает окружающий тематический контент (как в категории) что тоже плюс. Те же асессоры учитывают, например, окружающий контент. Роботы уверен тоже.

2