Как проверить спамность текста и почему это неважно

Уже пять лет мы занимаемся созданием оптимизированного контента для сайтов. И обычно мы требуем обратную экспертную связь по текстам. Это позволяет избежать неточностей в тексте и добавить экспертность.

Но у нас регулярно бывают заказчики, которые, прогнав текст через автоматические проверялки, требуют уменьшить спамность или тошноту слов. Кому-то нужна 100% уникальность.

В этой статье я разберу самые большие мифы клиентов по поводу текстов, которые, как оказалось, в том числе культивируются SEO-шниками, ну или скорее людьми, так себя называющими.

Миф 1. Заспамленность

Да, за спам все еще положен фильтр от Яндекса Баден-Баден. Но проблема в том, что "плотность ключевиков", которую безуспешно пытались замерить SEO-шники, так и не обрела доказательную базу. В разных тематиках плотность ключевиков топовых статей колеблется от 1,5 до 7%, т. е. разбег в 5(!) раз. Понятно, что использовать полученные данные как метрику нельзя.

В итоге большинство адекватных оптимизаторов пришли к выводу, что плотность ключевиков должна быть достаточной, но не избыточной. Точнее, к сожалению, сказать нельзя.

Миф 2. Уникальность

Многие SEO-шники до сих пор молятся на уникальность текста. Меряются процентами уникальности между собой. Странно слышать о таком в 2020 году, но это встречается. Прогоняют через text.ru и виляют хвостиком: "надо повысить уникальность". Но правда в том, что:

1. Самыми главными показателями текста являются релевантность и польза для посетителя. Грубо говоря, ключевики и поведенческие. Уникальность находится на десятом месте.

2. Все эти сервисы проверяют уникальность не так, как поисковики. Методика проверки уникальности у Яндекса учитывает еще и структуру текста, подзаголовки и абзацы. 100% уникальный текст может оказаться в глазах Яндекса копией. Повышать уникальность синонимизацией смысла нет. Надо делать уникальную структуру.

Уникальность имеет значение, но надо адекватно ее оценивать и учитывать в контексте. Да, мы проверяем уникальность через etxt и требуем от авторов не ниже 80%, но уникальность не является самоцелью – это одна из метрик.

Два года назад у меня была интересная переписка по поводу уникальности с Яндексом еще в 2017 году. Вот ответ Яндекса:

Большинство SEO-шников включили мозги и поняли, что уникальность даже не гарантирует, что контент будет проиндексирован. Тонны уникального контента лежат без трафика.

Но зачем включать мозги, когда есть готовые сервисы, которые все сделают за тебя? Вообще автоматические SEO-сервисы, которые из любого делают SEO-шника и отключают критическое мышление, это тема отдельной статьи.

Если мы пытаемся подогнать текст под требования чьих-то формул, мы теряем пользователя. Тем более что влияние на позиции таких факторов, как уникальность, тошнота, заспамленность либо небольшое, либо вообще не доказано.

Уменьшить ту же спамность можно двумя путями – добавить нейтральные предложения, но это ухудшит восприятие текста человеком и повысит водность. Можно убрать несколько ключевиков, но так статья становится менее релевантной. Любая попытка подогнать текст под требования автоматических проверялок всегда ведет к ухудшению качества текста.

Моя позиция такая: текст создается в первую очередь для человека, и оценивать текст тоже должен человек по таким параметрам, как удобство, точность и краткость.

Я пытаюсь донести до клиентов одну простую мысль, что все эти автоматические проверялки текстов даже близко не могут сравниться с роботами поисковиков, которые оценивают текст по очень большой совокупности факторов. У поисковиков, например, есть такие данные:

  • статистика поведенческих факторов (невозврат в поиск, дочитывание, репост и т. д.);
  • данные по текстам уже доказавшим свое качество;
  • оценка структуры текста;
  • оценка форматирования и удобства для пользователя;
  • оценка уникальности (и здесь алгоритм кардинально отличается от алгоритма онлайн-сервисов);
  • оценка полноты ответов на все поисковые запросы;
  • данные о смежных запросах и о многом другом.

Какой из этих факторов учтет автоматический сервис? Ни один. Он может просто посчитать слова и измерить их соотношение. Все. И это соотношение не будет учитывать контекст. Если вы вставили таблицу и списки, вы переспамили. Удалять таблицы и списки? Но если вы читаете спамный текст, то и сами увидите, что он спамный.

Имея нейросети и биг дата, огромную статистику поисковых запросов и статистику поведенческих, поисковики все равно массово используют труд живых людей – асессоров, которые посещают и оценивают сайты. Потому что в Яндексе понимают, что текст созданный для человека, должен оценивать человек.

В какой момент некоторые SEO-шники решили, что калькулятор слов, которым по сути и являются онлайн-сервисы, может адекватно оценить текст? В какой момент они решили что имеют право решать какой процент спамности допустим?

Самое интересное, что все эти претензии клиента убираются одним предложением. Я просто присылаю пример нашего текста из топ-3 с очень плохими показателями по мнению этих проверялок и спрашиваю, как такое возможно? Как тексты со спамностью выше 75% вместо санкций получают топ?

Любому человеку становится понятно, что поисковики, работают по другому алгоритму. И мы, отбросив циферки, переходим к обсуждению содержания текста, что и является его главной ценностью.

Но парадокс в том, что те кто заплатил за курсы и получил набор таких "метрик", даже имея примеры работы поисковика, не могут признать очевидную вещь. Они требуют уменьшить спамность, даже невзирая на предупреждение о снижении релевантности и качества текста.

0
16 комментариев
Написать комментарий...
Анатолий Чупин

Краткий итог.

1. Заспамленность неважна - но спамить ключевиками не надо, а то можно схватить Баден-Баден.

2. Уникальность неважна - но мы требуем, как минимум 80% уникальности.

Ответить
Развернуть ветку
Sergio Mekeda
Автор

"Уникальность имеет значение, но надо адекватно ее оценивать и учитывать в контексте."
Речь о чувстве меры, которого лишены люди требующие 100% уникальность

Ответить
Развернуть ветку
Прочел это-потратил время зря

Я ставлю копирайтер такую задачу - 100%. Ну если он может это делать за такие же деньги, то почему бы не делать?

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Если это копирайт то, он и должен быть 100%. Просто копирайт редко пишут.  Мало кто настолько разбирается в теме, чтобы писать из головы.
Чаще рерайт на основе источников. Он тоже может быть 100% но не обязательно. Мы даем автору уникальную семантическую структуру будущего текста, поэтому структура всегда уникальна. 

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Речь не о неважности переспама, а о способах его определения.  Еще раз внимательно прочитайте. 

Ответить
Развернуть ветку
Анатолий Чупин

Нет, спасибо. 

Ответить
Развернуть ветку
Есения Кадо

Хоть кто-то написал годноту! Я просто в шоке, когда в 2020 году сидят и считают вхождения слов, количество символов между ними. Че такое LSI копирайтинг вообще не слышали... Уже нейронная сеть вообще без ключевиков в тексте научилась понимать о чем он. Вот именно, что текст должен быть просто полезным и легкочитаемым. 

Ответить
Развернуть ветку
Пётр Иванов

ИИ яндекса  гугла поумнеют раньше сеошников и отберут у них работу. Останутся только эксперты без которых даже ИИ не справятся..

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Ну SEOшников и так мало осталось. Только на крупных проектах. На средних они уже давно трансформировались в интернет-маркетологов. 
Семантика, поведенческие, юзабилити... это уже маркетинг)
Так что работы всем хватит)

Ответить
Развернуть ветку
Илья Щербаков

"Вообще автоматические SEO-сервисы, которые из любого делают SEO-шника и отключают критическое мышление, это тема отдельной статьи." - писать будете? Было бы интересно почитать))

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Да тут книги можно писать) Классика "У вас тут ошибки. Вот сколько красного", а там чекер фавиконку не нашел)

Ответить
Развернуть ветку
Алексей Материкин

"Как тексты со спамностью выше 75% вместо санкций получают топ?" - ПФки крутите ;)

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Открою секрет - короткий, информативный текст с обилием данных - это самый лучший ответ на запрос. Так вот такие тексты всегда имеют спамность выше 75%, потому что там нет воды)

Ответить
Развернуть ветку
Максим Пряник

Статья водянистая вода. Набор клише и каких мифов. 

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Вот кстати как емко по этому поводу высказался Мэтт Каттс: "Мы должны противостоять подобным вещам. Мы бы очень хотели, чтобы владельцы сайтов перестали задумываться над плотностью ключевых слов.

Она зависит от многих факторов - от региона, от того, какова плотность слов у других сайтов в вашей тематике и т.д. Универсального рецепта нет и быть не может.

Если вам говорят о том, что есть универсальная плотность ключевых слов, то будьте осторожны, потому что вам могут попытаться продать какую-либо программу для определения оптимальной плотности и т.д.
"

Ответить
Развернуть ветку
13 комментариев
Раскрывать всегда