Как проверить спамность текста и почему это неважно

Уже пять лет мы занимаемся созданием оптимизированного контента для сайтов. И обычно мы требуем обратную экспертную связь по текстам. Это позволяет избежать неточностей в тексте и добавить экспертность.

Но у нас регулярно бывают заказчики, которые, прогнав текст через автоматические проверялки, требуют уменьшить спамность или тошноту слов. Кому-то нужна 100% уникальность.

Как проверить спамность текста и почему это неважно

В этой статье я разберу самые большие мифы клиентов по поводу текстов, которые, как оказалось, в том числе культивируются SEO-шниками, ну или скорее людьми, так себя называющими.

Миф 1. Заспамленность

Да, за спам все еще положен фильтр от Яндекса Баден-Баден. Но проблема в том, что "плотность ключевиков", которую безуспешно пытались замерить SEO-шники, так и не обрела доказательную базу. В разных тематиках плотность ключевиков топовых статей колеблется от 1,5 до 7%, т. е. разбег в 5(!) раз. Понятно, что использовать полученные данные как метрику нельзя.

В итоге большинство адекватных оптимизаторов пришли к выводу, что плотность ключевиков должна быть достаточной, но не избыточной. Точнее, к сожалению, сказать нельзя.

Миф 2. Уникальность

Многие SEO-шники до сих пор молятся на уникальность текста. Меряются процентами уникальности между собой. Странно слышать о таком в 2020 году, но это встречается. Прогоняют через text.ru и виляют хвостиком: "надо повысить уникальность". Но правда в том, что:

1. Самыми главными показателями текста являются релевантность и польза для посетителя. Грубо говоря, ключевики и поведенческие. Уникальность находится на десятом месте.

2. Все эти сервисы проверяют уникальность не так, как поисковики. Методика проверки уникальности у Яндекса учитывает еще и структуру текста, подзаголовки и абзацы. 100% уникальный текст может оказаться в глазах Яндекса копией. Повышать уникальность синонимизацией смысла нет. Надо делать уникальную структуру.

Уникальность имеет значение, но надо адекватно ее оценивать и учитывать в контексте. Да, мы проверяем уникальность через etxt и требуем от авторов не ниже 80%, но уникальность не является самоцелью – это одна из метрик.

Два года назад у меня была интересная переписка по поводу уникальности с Яндексом еще в 2017 году. Вот ответ Яндекса:

Как проверить спамность текста и почему это неважно

Большинство SEO-шников включили мозги и поняли, что уникальность даже не гарантирует, что контент будет проиндексирован. Тонны уникального контента лежат без трафика.

Но зачем включать мозги, когда есть готовые сервисы, которые все сделают за тебя? Вообще автоматические SEO-сервисы, которые из любого делают SEO-шника и отключают критическое мышление, это тема отдельной статьи.

Если мы пытаемся подогнать текст под требования чьих-то формул, мы теряем пользователя. Тем более что влияние на позиции таких факторов, как уникальность, тошнота, заспамленность либо небольшое, либо вообще не доказано.

Уменьшить ту же спамность можно двумя путями – добавить нейтральные предложения, но это ухудшит восприятие текста человеком и повысит водность. Можно убрать несколько ключевиков, но так статья становится менее релевантной. Любая попытка подогнать текст под требования автоматических проверялок всегда ведет к ухудшению качества текста.

Моя позиция такая: текст создается в первую очередь для человека, и оценивать текст тоже должен человек по таким параметрам, как удобство, точность и краткость.

Я пытаюсь донести до клиентов одну простую мысль, что все эти автоматические проверялки текстов даже близко не могут сравниться с роботами поисковиков, которые оценивают текст по очень большой совокупности факторов. У поисковиков, например, есть такие данные:

  • статистика поведенческих факторов (невозврат в поиск, дочитывание, репост и т. д.);
  • данные по текстам уже доказавшим свое качество;
  • оценка структуры текста;
  • оценка форматирования и удобства для пользователя;
  • оценка уникальности (и здесь алгоритм кардинально отличается от алгоритма онлайн-сервисов);
  • оценка полноты ответов на все поисковые запросы;
  • данные о смежных запросах и о многом другом.

Какой из этих факторов учтет автоматический сервис? Ни один. Он может просто посчитать слова и измерить их соотношение. Все. И это соотношение не будет учитывать контекст. Если вы вставили таблицу и списки, вы переспамили. Удалять таблицы и списки? Но если вы читаете спамный текст, то и сами увидите, что он спамный.

Имея нейросети и биг дата, огромную статистику поисковых запросов и статистику поведенческих, поисковики все равно массово используют труд живых людей – асессоров, которые посещают и оценивают сайты. Потому что в Яндексе понимают, что текст созданный для человека, должен оценивать человек.

В какой момент некоторые SEO-шники решили, что калькулятор слов, которым по сути и являются онлайн-сервисы, может адекватно оценить текст? В какой момент они решили что имеют право решать какой процент спамности допустим?

Самое интересное, что все эти претензии клиента убираются одним предложением. Я просто присылаю пример нашего текста из топ-3 с очень плохими показателями по мнению этих проверялок и спрашиваю, как такое возможно? Как тексты со спамностью выше 75% вместо санкций получают топ?

Любому человеку становится понятно, что поисковики, работают по другому алгоритму. И мы, отбросив циферки, переходим к обсуждению содержания текста, что и является его главной ценностью.

Но парадокс в том, что те кто заплатил за курсы и получил набор таких "метрик", даже имея примеры работы поисковика, не могут признать очевидную вещь. Они требуют уменьшить спамность, даже невзирая на предупреждение о снижении релевантности и качества текста.

77
16 комментариев

Краткий итог.

1. Заспамленность неважна - но спамить ключевиками не надо, а то можно схватить Баден-Баден.

2. Уникальность неважна - но мы требуем, как минимум 80% уникальности.

4
Ответить

"Уникальность имеет значение, но надо адекватно ее оценивать и учитывать в контексте."
Речь о чувстве меры, которого лишены люди требующие 100% уникальность

Ответить

Речь не о неважности переспама, а о способах его определения.  Еще раз внимательно прочитайте. 

Ответить

Хоть кто-то написал годноту! Я просто в шоке, когда в 2020 году сидят и считают вхождения слов, количество символов между ними. Че такое LSI копирайтинг вообще не слышали... Уже нейронная сеть вообще без ключевиков в тексте научилась понимать о чем он. Вот именно, что текст должен быть просто полезным и легкочитаемым. 

2
Ответить

ИИ яндекса  гугла поумнеют раньше сеошников и отберут у них работу. Останутся только эксперты без которых даже ИИ не справятся..

1
Ответить

Ну SEOшников и так мало осталось. Только на крупных проектах. На средних они уже давно трансформировались в интернет-маркетологов. 
Семантика, поведенческие, юзабилити... это уже маркетинг)
Так что работы всем хватит)

2
Ответить

"Вообще автоматические SEO-сервисы, которые из любого делают SEO-шника и отключают критическое мышление, это тема отдельной статьи." - писать будете? Было бы интересно почитать))

1
Ответить