{"id":13505,"url":"\/distributions\/13505\/click?bit=1&hash=ca3734639136826288c9056e5c8fa03a05e87c4060ae84df200f2c90f5262470","title":"\u0412\u044b \u0440\u0430\u0437\u0440\u0430\u0431\u043e\u0442\u0447\u0438\u043a? \u0410 \u043f\u043e\u043d\u0438\u043c\u0430\u0435\u0442\u0435 \u0447\u0442\u043e-\u0442\u043e \u0432 \u0438\u0441\u043a\u0443\u0441\u0441\u0442\u0432\u0435 \u043a\u043e\u0434\u0430?","buttonText":"\u041f\u0440\u043e\u0432\u0435\u0440\u0438\u0442\u044c","imageUuid":"f5f0e11f-fefd-52f5-8712-82164a59b7ce","isPaidAndBannersEnabled":false}
SEO
Виктор Петров

SEO-археология: забытые термины

Поисковые алгоритмы меняются, а вместе с ними – и средства поискового продвижения. Регулярное чтение статей о SEO позволяет заметить негативную динамику: контент такого рода сильно упростился, и чаще всего сводится к каким-то всем известным трюизмам. Не спамьте, думайте о пользователе, делайте сайт лучше. Но разве это имеет отношение к информационному поиску вообще и SEO – в частности?

В этой статье вспомним и разберем некоторые термины и понятия, уже основательно забытые «олдами» и уже неизвестные новым поколениям «сеошников». А заодно попробуем оценить, насколько актуальны эти термины и методы SEO, основанные на них.

tf-idf

Показатель, оценивающий значимость слова в документе с оценкой данных в коллекции документов. Этот алгоритм – база поисковых алгоритмов, помогающая построить векторы для информационного поиска.

Основная проблема: векторы tf-idf благодаря своим свойствам не способны работать с семантическим смыслом. Его формула, например, никак не учитывает длину документа. Даже при использовании модифицированной формулы (BM-25) полноценно работать со смыслом документа нельзя, поскольку работает он только с ключевыми словами и их вхождениями.

Значит ли это, что расчёты tf-idf абсолютно не нужны? – Нет, просто оценивать с их помощью стоит лишь отдельные текстовые зоны (тайтл, зона текстов, зона анкоров и т.п.) на самой ранней стадии работы с документом. Кроме того, известно, что tf-idf и BM-25 использовались Яндексом для оценки ссылочных анкоров.

Это может быть вспомогательным инструментом оптимизатора, но не нужно ожидать от использования старых формул слишком многого. Например, хорошо известный всем Джон Мюллер уточнил, что нет смысла фокусироваться на таких формулах, а в рамках алгоритма tf-idf используется для отсева стоп-слов (источник).

Резюме. tf-idf, BM-25 и другие методы обработки текста для выявления ключевых слов и отсева стоп-слов остаются частью поисковых алгоритмов. В рамках современных практик SEO вы можете спокойно их игнорировать, и вообще не иметь понятия об их формулах. Однако в ряде случаев они всё ещё могут быть полезны – для выявления выраженных аномалий, разработки собственных программных инструментов, программной обработки данных парсинга и т.п.

Переколдовка запроса

Переколдовка – это изменение пользовательского запроса таким образом, чтобы изменились веса некоторых слов запроса для получения более релевантной выдачи. Пользователь обращался к поиску с запросом, алгоритм менял формулировку, добавляя синонимы и просчитывая веса слов (IDF) в запросе, и лишь после этого формировал выдачу.

Для чего это было нужно? Прежде всего, для исправления опечаток и ошибок в запросах без изменения смысла этого запроса. Кроме того, переколдовка запроса с помощью выделения самых весомых слов вообще должна была помочь Яндексу понять, что у него спрашивают.

Такое до сих пор продвигается совершенно всерьёз. А когда-то раздавались советы вставлять прямые вхождения ключей с ошибками и опечатками – и это использовалось.

В рамках SEO довольно быстро было обнаружено, что почти идентичные на первый взгляд запросы переколдовываются Яндексом по-разному, и выдача по ним отличается. А значит, надо было искать способ понять алгоритм переколдовки, чтобы найти идеальные сочетания слов в запросах. Это использовалось для работы текстовыми метриками, в том числе – при проработках анкор-листов. Например, синонимы вполне могли подразумевать разные кластеры, и даже порядок слов в запросе может влиять на кластеризацию.

Способ работать с колдунщиками нашёлся быстро: результат переколдовки можно было вытащить из URL сохраненной копии в параметрах ссылки после декодирования вместе с абсолютными весами каждого слова в запросе. (Этот способ давно не работает).

Как видите, в рамках топ-10 разницы нет, но в топ-20 позиции уже могут отличаться.

Резюме. Переколдовка запросов никуда не исчезла и сейчас, хотя работа с ней во многом потеряла смысл в большинстве случаев. По любым частотным ключам системой накоплены колоссальные объёмы данных, и поисковик может понять, что у него пытаются спросить, даже если запрос набран не в той раскладке, с опечатками и ошибками. Как минимум, нет никакого смысла добавлять ошибочные вхождения на страницу, хотя вы должны убедиться, что выдача по запросам «айфоны» и “iphone” не отличается. Подробно о переколдовке.

Веса слов в запросе

В 2010 году Евгений Трофименко обнаружил баг в Яндекс-XML, связанный с переколдовкой запросов (см. выше), и выкачал базу по 1,3 млн. популярных ключей с дополнительными словами и весами слов. В 2011 баг был устранен, однако база использовалась практиками довольно долго. Каждое слово в запросе отличается по весу. Стоп-слова по умолчанию имеют значение, обратное частоте употребления этого слова в анализируемом корпусе (в данном случае – в рамках всех документов рунета).

Ради чего всё было нужно: более «легкие» слова отбирались для разбавления анкор-листа арендных ссылок. Вот у вас три рубля в качестве бюджета на «Сапу», вот пачка сайтов, никак не связанных тематически и по контексту с продвигаемым, вот анкор-лист на сотню ссылок. И из этого надо извлечь максимум выгоды от ссылочного.

Другой способ применения – кластеризация. Её алгоритм подразумевал учёт «весов», а не только пересечения по «серпу», куда залетали сайты благодаря совсем другим метрикам – хостовым, поведенческим и т.п. Способ показал себя очень ресурсоёмким при очень малой выгоде для работы.

Резюме. Фактически, веса слов как характеристика сохранились, но работать с ними сейчас – не самая простая задача. Преимущественно такие базы используются для работы со стоп-словами. Процесс анализа весов очень зашумлен ручными правками, склеиванием отдельных словоформ, а главное – сменой приоритетов в факторах ранжирования. Текстовые метрики в целом давно уступили своё значение коммерческим и поведенческим факторам ранжирования.

Монолитный и запросный индексы

Под монолитным индексом принято понимать список ключевых слов, связанных с конкретным документом, и включающих как текст на странице, так и ключи в анкорах внешних ссылок. Благодаря связям документа с ключевыми словами, входящими во внешние ссылки, документ может ранжироваться по фразам, которых на самой странице нет – и без всякой NLP, на самых примитивных алгоритмах. Классический пример – это ранжирование биографии Дж. Буша-младшего по запросу “miserable failure” («жалкий неудачник») на официальном сайте Белого Дома. Разумеется, страница не содержала таких слов, но ссылочные анкоры своё дело делали. Google не мог справиться с проблемой 4 года.

Если запросный индекс – это перечень всех ключевых слов, по которым ресурс вообще имел видимость, монолитный индекс имеет прямое отношение к текстовым характеристикам документа. То есть в одном случае речь идёт более о хостовых метриках, влияющих на соответствие заданной тематике. В другом – о возможности ранжирования документа по большому количеству ключей, большему, чем позволяют объёмы самого документа.

Оба индекса сохраняют важность для поисковой оптимизации. Если у вас для небольшой посадочной страницы подразумевается около сотни ключевых слов (а то и выше) анкоры ссылок помогут вам «подклеить» эти ключи к странице без необходимости добавлять их непосредственно в текст и шинглы на странице. Есть ли в этом реальная необходимость после ввода BERT и YATI? – Иногда есть, особенно в случаях, когда контент продвигаемой страницы пересекается по ключам с другими страницами, или поисковой системе просто позарез нужно прямое вхождение.

Запросный же индекс, составляемый из логов поисковых систем, в принципе помогает поисковику оценить релевантность документа по объёмам входящих ссылок, качеству трафика по ним и общей связи ресурса с другими узлами веб-графа.

Резюме. Понятие монолитного и запросного индекса сохраняют важность в SEO, поскольку влияют на релевантность как сайта в целом, так и отдельных страниц на уровне тематики и конкретных групп запросов. Техники оптимизации, связанные с этими понятиями, помогают решить многие проблемы, не решаемые другими способами.

«Пифаунд» (PFound)

PFound – метрика качества ранжирования, разработанная командой Яндекс и определяющая релевантность документа запросу с учетом вероятности его просмотра пользователем с выдачи. Формула учитывает влияние асессорских оценок (потерявших актуальность), а сама нормализация топов давно выполняется совсем другими средствами, наподобие catboost (градиентного бустинга).

Формула pFound

PFound использовался прежде всего для настроек и корректировок поисковых алгоритмов после каждого обновления алгоритма. Как можно догадаться по формуле, PFound относится к ручной формуле, участвующей в обучении алгоритма. Насколько мне известно, асессорский отдел Яндекса после расформирования был окончательно заменен сервисом «Толока», а принципы обучения нейросети серьёзно изменены. И есть ощущения, что сама по себе ручная формула серьёзно «усохла» до какого-то текстового анализа на уровне Fast-Rank (но это, разумеется, неточно).

Резюме. Термин интересен более как история алгоритмов ранжирования, и достоин почетного места в музее SEO. Однако если вы интересуетесь MachineLearning – тему стоит внимательно изучить.

Supplemental Index («сопли»)

В древности, когда интернет был ещё сравнительно мал, Google мог позволить себе сканировать и индексировать всё подряд. И более того: он даже явный мусор не выбрасывал с отвращением, а бережно записывал в особый «дополнительный индекс» (Supplemental Index).

Ничего странного: информационный поиск в принципе не должен иметь других критериев, кроме соответствия запросу пользователя. Поэтому даже список «некачественных» документов в те дикие времена был доступен при желании, тем более что в этот индекс попадали вообще все страницы, с которыми у гуглобота возникли какие-то проблемы, в том числе – технического характера.

Вебмастера рунета с любовью окрестили Supplemental Index ласковым именем «Сопли Гугла»: попавшие в дополнительный индекс страницы вытянуть в основной было задачей трудной. Чаще всего подразумевалось, что страницу нужно кардинально переделать, дополнить, возможно – изменить URL, и дать понять поисковику, что страница на самом-то деле достаточно хороша.

Официально Supplemental Index прекратил существование ещё в 2007 году, но лишь пару лет назад он действительно исчез как явление даже при использовании оператора “site:”.

Резюме. Актуально ли это сейчас? – Пожалуй, нет. Google больше не выводит ссылку на скрытые результаты, а ссылки на проблемные страницы доступны только из Search Console. При этом SC содержит чуть больше информации о том, что не так со страницей (видел, но ещё не смотрел, смотрел – но не счёл нужным индексировать, и т.п.).

Запросный кворум

Чтобы документ мог ранжироваться по заданному ключевому слову, он должен пройти заданный кворум, набрав определенную долю суммарного веса слов из запроса. Чтобы пройти кворум, документ может использовать как слова в рамках самого документа, так и ключи в анкорах входящих ссылок (см. выше «Монолитный индекс»).

Формула расчёта запросного кворума включала коэффициент мягкости, подразумевающая, что документ может ранжироваться по какому-то запросу, даже если не все слова из запроса встречаются в самом документе или в анкорах входящих ссылок. Подробно о кворуме из первоисточника.

Анализ актуальной выдачи показывает, что в запросах общего характера, по которым у поисковых систем накоплены колоссальные объёмы информации, запросный кворум практически утратил своё значение, особенно для ключевых слов с малой частотностью. Текстовые характеристики явно имеют намного меньшее значение, чем поведенческие, и возможно – чем тот же запросный индекс: если ранее на сайт были неотказные визиты по каким-то ключам без точных вхождений, сайт всё равно будет ранжироваться по этим ключевым словам.

Резюме. Соответствие документа запросу после появления алгоритмов, оценивающих смысл и интент запроса на базе полученных ранее данных о посетителе, как минимум снижают важность существования запросного кворума. Однако это вовсе не значит, что он не применяется хотя бы на стадии первичной индексации, когда алгоритм применяет самые грубые текстовые метрики для оценки контента страницы. Имеет смысл оценить усредненные количества вхождений важнейших ключей до того, как страница будет отправлена в индекс.

Сателлиты

Под сайтами-сателлитами принято понимать любые дополнительные сайты, объединенные в сеть и связанные с продвигаемым. Их используют для передачи ссылочного веса, охвата большего среза продвигаемой семантики, а также просто для того, чтобы занять максимальное количество позиций в топе поисковой выдачи.

PBN: эффективно, но недешево

Устарела ли эта практика? – Нет, напротив, она лишь набирает обороты, просто «сателлит» стал устаревшим термином. Вместо этого сейчас используют заимствованную аббревиатуру PBN – Private Blog Network. (Почему «блог»? – Да просто потому, что изначально для создания сеток использовались сайты на WordPress, и были это именно блоги).

Актуальная и самая распространенная схема достаточно проста: перехватывается домен, или просто выкупается дроп (брошенный владельцем домен с хорошими характеристиками, историей и ссылочным профилем). На нём создаётся небольшой по объёмам сайт с использованием восстановленного из веб-архивов контента – это дешевле, чем создавать новый абсолютно с нуля.

Дальнейшее использование сетки зависит от задач бизнеса и целевой поисковой системы. Чаще всего PBN выстраивают для продвижения в Google, как первый или второй слой многоуровневого ссылочного профиля (в зависимости от качества созданной «сетки»).

Резюме. Само понятие сателлитов – живее всех живых, поскольку такой метод продвижения не утратил эффективности и позволяет добиться результатов в решении множества задач.

Заключение

Как видите, большая часть понятий и терминов, горячо обсуждавшихся ещё 15 лет назад, всё ещё сохранила актуальность и значимость для практики, хотя и в меньшей мере, чем было когда-то. Ничто не исчезает из поисковых алгоритмов насовсем, просто утрачивает важность или сферу применения. А многие основательно подзабытые практики просто возвращаются окольными путями и под новыми именами, фактически не меняясь по сути.

Разумеется, невозможно в одной статье охватить весь забытый арсенал средств и методов, да и незачем. Любой старый форум, посвященный SEO, хранит тонны полезной информации, и если вас интересует тема продвижения сайтов в поиске – не пренебрегайте этими источниками. Всё новое – это хорошо забытое старое, и как минимум, вы наверняка найдёте для себя несколько красивых идей, которые сможете эффективно применять на практике.

В оформлении использована работа Алехандро Бурдизио «Деревня роботов».

0
50 комментариев
Написать комментарий...
Wexx Ebrilo

Спасибо, Виктор. Как всегда супер информативно и профессионально

Ответить
Развернуть ветку
Виктор Петров
Автор

Благодарю за оценку.
Тут, объективно, практической пользы немного, это скорее радиопередача "Этот день в истории". Я просто уже несколько месяцев не могу избавиться от ощущения общей деградации инфо-каналов в этой тематике - сплошной маркетинг во всех смыслах.

Ответить
Развернуть ветку
Артем Бирюков

Я думаю дело не только в деградации. Уже очень давно всё инфопросранство представляет из себя переписывание уже написаного кем-то ранее. Своеобразный рерайт. Чем дольше ты в сфере, тем более это заметно и тем сильнее ситуация надоедает. Сейчас к этому ещё добавились репосты одной новости/статьи в каждый канал в итоге везде написано одно и тоже.

А генерация чего то действительно нового и ценного для сферы это сложная задача. И когда она решена, встаёт вопрос, а стоит ли этой новинкой вообще делиться? Особенно если она действительно ставит сайты в топ.

Вот такой выходит казус)

Ответить
Развернуть ветку
Ольга Маньшина

+10
Раньше я спрашивала себя: "Что заставляет людей делиться ценной информацией, фактически обучать конкурентов?" (такой был тонкий и ненавязчивый маркетинг через экспертность)
Сейчас такой вопрос невозможен - всё очевидно, как лом. И самое интересное, олды почти ушли из публичного поля.

Ответить
Развернуть ветку
Alex Tun

Сейчас всё с точностью наоборот) "Люди делятся сто раз пережёванной информацией с паблика" (такой толстый и навязчивый маркетинг через "псевдо экспертность") Очень хорошо это заметно по зарубежной SEO тусовке в линкедине . Бесконечные гайды, чеклисты и пережёвывание официальной справки гугла и твитов Мюллера. Конфы, вебинары и разные видео стримы. Ну а олды зарабатывают на имени. В своё время получив доступ к исследованиям SEO Intelligence Agency, я нашёл больше годноты, чем сейчас из всех стримов вместе взятых.

Ответить
Развернуть ветку
Ольга Маньшина

"олды зарабатывают на имени" - да, я тоже пришла к такому выводу. Это как с зачёткой. Второй вывод - вероятно, сфера SEO из терра инкогнита перешла в состояние института.

Ответить
Развернуть ветку
Виктор Петров
Автор

Что характерно - секретов-то нету, если речь не идёт о каких-то найденных дырках в алгоритме или "чёрных" практиках - ну типа задидосить, переклеить и пару-тройку дней собирать профит.
По факту же - вот учебник линейной алгебры, вон - про ML, а вот поле для экспериментов.
И ещё за чеклисты чужие - линейкой по рукам. Но это уже ненаучная фантастика

Ответить
Развернуть ветку
Олег Анатольевич Черников

Прям бальзам на душу 🤗 давно хорошего и полезного не видел. Спасибо Виктор 👍

Ответить
Развернуть ветку
Dear Moscow,
Я просто уже несколько месяцев не могу избавиться от ощущения общей деградации инфо-каналов в этой тематике - сплошной маркетинг во всех смыслах.

Это не ощущение, это — факт. К сожалению, весьма повсеместный, не ограничивающийся одним SEO.

Ответить
Развернуть ветку
How Fucking
общей деградации инфо-каналов в этой тематике - сплошной маркетинг во всех смыслах.

Вроде всегда так было, редко встретишь материал нормальный.

Ответить
Развернуть ветку
Виктор Петров
Автор

Я бы обозначил водоразделом примерно 2015-2017, можно проследить хотя бы по форумам типа "Сёрча". Старые топики намного интереснее и информативнее нынешнего потока "Упал доход", "Яндекс апять плахой" и т.п. Даже кейсы из разбора конкретных проблем и методов превратились в "Мы сделали хорошо, и стало хорошо".
Информационный голод. Хоть что-то остаётся в ТГ-каналах и некоторых пабликах в соцсетях, плюс архивная уже по сути информация.

Ответить
Развернуть ветку
How Fucking

да, во время форумов можно было что-то интересное почитать. Но там тоже было не мало мусора типо инфоцыган.

Ответить
Развернуть ветку
Aleksandr Denisov

Ох, это прям как ягода помяника))
https://www.youtube.com/watch?v=emTtZY_lcFQ
Отличный разбор👍

Ответить
Развернуть ветку
Иван Жданович

В современном SEO далеко не все так четко и однозначно в текстовом ранжировании. Потому что:
Появились разрекламированные ИИ типа BERT или YATI, а так же интент или смысл документа или запроса, что одновременно и модно-современно и ХЗ что в одном фалаконе. Потому что:
1. Их внедрение как бы сильно подвинуло все классические варианты учета ключей, но при этом НЕ ПРИНЕСЛО значимой революции в поиске. Т.е. это скорее было похоже на эволюционное изменение, а не революционное.
2. За счет того, что пришел BERT/YATI появились вообще ХЗ какие коэффициенты для слов и ключей, которые скорее всего перевешивают текущие веса слов и которые ХЗ какой линейкой мерять.
3. При этом для ВЧ ключей ИИ скорее всего применяется минимально, потому что "и так все понятно что там хотят" и при этом на эти же ВЧ текстовые факторы влияют не слишком сильно, как и ранее. Т.е. мало что поменялось
4. Для НЧ ИИ чуть улучшил, но опять же... Субьективно и очень усредненно "ранее поиск в 50% выдавал чушь, а сейчас в 40% чушь". Потому что ранжировать по ключам из НЧ классически - это понятно как, а искать интент правильный (глубинный смысл) уже не так очевидно в псевно случайном наборе слов.
5. Семантический смысл - тоже частично натянутое поняние. Все таки документы - это не литературные произведения с генеральным сужетом и развязкой в конце. Если смотреть не документы в топе, то очень часто текста сухи и лаконичны, которые скорее описательные, чем несущие глубинный смысл вокруг единой мысли.
6. При этом всем всякие штуки типа "канибализация семантики" и "тегирование" имет до сих пор смысл и значимое влияние.
7. И такие термины как "охват тематики" и "полнота описания", а также ГЕО надстройка как работали, так и работают с достаточно простыми анализами вхождения.
8. И еще важное замечание - довольно часто отдельный документ сам по себе не имеет смысл рассматривать текстово с точки зрения успеха продвижения :) Надо как минимум раздел иметь, а то фиг что получится несмотря на все научные подходы :)

Как итог с моей колокольни - старые термины все таки старые... А если сильно влазить все таки захочется в это, то можно легко докатиться до "терм детерминированных матриц" как у Чекушина, опять же, без значимого прорыва вперед, но невероятным ростом сложности анализа.

Ответить
Развернуть ветку
Станислав Виленский

нет никакого ИИ, есть алгоритмы и коэффициенты, которые подкручиваются периодически, сейчас самый значимый фактор ранжирования ПФ, потом Релевантность относительно конкурентов из Топа, если смотреть в анализе топ 50 становится понятны зависимости.
-
Если были бы ИИ, в топ бы вываливались рандомно сайты, и не было бы накруток, так как эти самые ИИ их бы идентифицировали, а так пока им не внесут определенные значения, так и будут сидет сайты в топе без внешнего веса, далекие от средней, с накрученным ПФ

Ответить
Развернуть ветку
Иван Жданович

Я в самом начале писал что это рассматриваю для "текстового ранжирования". Про другое можно сказать - не писал.

Ответить
Развернуть ветку
Станислав Виленский

ИИ нет нигде в ПС, может какой-то маркетолог из ПС будет бить себя в грудь и важно на конференции рассказывать...
Все это - просто накопление данных для последующего анализа с учетом формул, которые задают программисты, а другие кто анализируют выдачу влияют на зависимости, закладывая корректировки. Третьи определяют какие-то однотипные действия и заносят их как плохие, на основе чего алгоритм начинает срабатывать и карать...

Поисковики - это набор больших формул в определенной последовательности их применения...оно так было, есть и еще какое-то время будет.

Ответить
Развернуть ветку
Виктор Петров
Автор

Вы отрицаете существование "Матрикснет" и считаете, что кроме ручной формулы ничего не существует, я правильно понимаю?

Ответить
Развернуть ветку
Станислав Виленский

Я считаю что это алгоритм, который накапливает в себя данные, к которым затем применяются другие формулы влияющие на те или иные значения на выходе, которые могут быть задействованы для расчета других формул/алгоритмов, уачтия в процессе. Это не ИИ...
ИИ - искусственный интеллект способен создавать новые формулы, находить решения, если так рассуждать и если говорить, что Матрикснет - это ИИ, то он должен тогда придумать был все остальные алгоритмы и значения к ним...зачем тогда программисты и аналитики и всякие толокеры Яндексу....

Ответить
Развернуть ветку
Виктор Петров
Автор

Ну, вопрос теории, на который мне уровень подготовки в этой теме не позволяет отвечать. Факт, что очень многое из заявленного яндексоидами проверяется, и тот же YATI за год достаточно поумнел. Другое дело, что можно ставить под сомнение корпус, на котором алго обучается.

Ответить
Развернуть ветку
Виктор Петров
Автор

Вы ПФ крутить пытались? Считаете, что можно с помощью накруток в топы загнать любой мусор?

Ответить
Развернуть ветку
Станислав Виленский

Видел кейсы от коллег...Мне это не нравится, это очередной рубильник, выключил упало, включил подняло.
Миниальный набор по оптимизации, нет мусора в коде документа, небольшая оптимизация и плотность и он смело обходит ряд старых сайтов, где годами работали сеошники.

Ответить
Развернуть ветку
Виктор Петров
Автор

Я бы сказал, что вот сейчас с накрутками всё совсем даже неоднозначно, далеко не так, как год назад. С минувшей осени работать с ПФ - уже не рубильник, который гарантированно даст результаты. Процессы сильно усложнились, а сайты с хостовым бонусом всё равно не обойти.
Как и маркетплейсы с органическим трафиком в миллионы хитов.

Ответить
Развернуть ветку
Виктор Петров
Автор

Кмк, всё проще и сложнее. Яндых уходит в оценку бизнеса, во многом отказываясь исключительно от средств информационного поиска, вместо них используя офлайн-сигналы. Не может шаурма "От ашота" конкурировать с сетью "макдак", хоть обоптимизируйся и завали ботами по самое небалуй.

Ответить
Развернуть ветку
Иван Жданович

Какие офлайн сигналы он пользует?

Ответить
Развернуть ветку
Виктор Петров
Автор

Хоть те же пользовательские. Минувшей осенью заметно было: адрес подтверди, видео из офиса пришли, на отзывах непонятно откуда пачку сайтов прикопали - хотя в паблике формально негатива либо не было, либо крохи.
Я довольно долго регулярно отправлял ответы на запросы после посещения какой-нибудь коммерческой точки - и от Яндекса, и от Гугла. Тоже канал для информации и оценок. Браузер, карты, сторонние сервисы и бог знает что ещё - и всё в копилочку.
Сейчас, судя по всему. они делают акцент на микроконверсиях и конверсиях - а тут одной оптимизации сайта мало. Если магазин не продаёт - то не продаёт.

Ответить
Развернуть ветку
Иван Жданович

Яндекс навигатор раньше активно спрашивал отзыва. Но что-то уже давно успокоился. Что-то другое видать появилось.
Продает или не продает - ХЗ пока как это реально определить.

Ответить
Развернуть ветку
Виктор Петров
Автор

По работе с ПФ вижу.
Да и не зря же они цели в метрику загнали. Едва ли тут дело в заботе о бизнесе - себе данные собирают

Ответить
Развернуть ветку
Илья Ефимов

Господа сеошники, а как сейчас обстоят дела с закупкой ссылок? Насколько она осталась эффективной? Я имею ввиду так называемые "вечные ссылки". Насколько понимаю, любые другие работы такого рода уже неактуальны? Или это не так?

Ответить
Развернуть ветку
Виктор Петров
Автор

В Google всё осталось, как и было, если речь о рунете.
С Яндексом сложнее. Ему, скорее, важна видимость бренда, его упоминания, присутствие в каких-то авторитетных каталогах, чем просто ссылки. Если вы прикупите пяток-десяток вечных ссылок - на позициях это, вероятно, не скажется никак.
Отмечу, что речь об актуальном состоянии алгоритма, возможно, потом что-то изменится.

Ответить
Развернуть ветку
Илья Ефимов

То есть по идее сегодня вообще уже нет смысла в закупке даже таких ссылок? Или это зависит от разных факторов?

Ответить
Развернуть ветку
Виктор Петров
Автор

Смысл есть, но надо понимать некоторые нюансы и иметь стратегию.
Под Гугл сейчас хорошо идут многоуровневые профили. Но если вы возьмёте на заданную категорию анкорные ссылки с ссылочных бирж - тоже будет хорошо, если не промахнуться с донорами.
А Яндексу нужен трафик, покупные ссылки его не дадут никак. Собственно, даже и органические, естественные не дадут в большинстве случаев. Так что если речь о Яндексе - там бюджеты лучше вкладывать не в ссылочное, а в хороший контент, привлечение трафика по любым каналам, SERM и т.п.

Ответить
Развернуть ветку
Дорогая, я здесь

Подскажите, а что значит многоуровневые профили?

Ответить
Развернуть ветку
Виктор Петров
Автор

Структура, основанная на PageRank и "ссылочном соке". На первый уровень берутся ссылки с очень "жирных" авторитетных сайтов. Вот хоть даже VC - его активно используют как сайт Tier 1.
На документы с этими ссылками ссылаются сайты похуже - с биржевых сайтов, блогов и прочего мусора.
А уже на те сайты закупается самый отчаянный мусор с каталогов, дорвеев, порно-сайтов, "лома" - в общем, годится всё, лишь бы побольше.
Таким образом, вы получаете ссылочную массу, очищенную от токсичных метрик, через домены-посредники, на больших объёмах, без риска влететь под фильтры за ссылочное - ведь на вас ссылаются только действительно авторитетные ресурсы.

Ответить
Развернуть ветку
Дорогая, я здесь

Спасибо.

Ответить
Развернуть ветку
Илья Ефимов

Ясно, спасибо за разъяснения.

Ответить
Развернуть ветку
Станислав Виленский

tf-idf - не нужен...
на этом можно закрыть было статью и не читать...
он нужен для построения анализа плотности ТОПа и подгонки по нему и поиска значимых LSI слов...

Ответить
Развернуть ветку
Виктор Петров
Автор

LSI никогда не использовался ПС. Вот LDA - таки да, а кроме него - ещё пачка алго этого рода.
Так что может, всё таки стоит тематику-то изучить? В частности, тут сказано, что tf-idf может и должно использоваться для анализа отдельных текстовых зон, анкоров и анализа отклонений и медианных данных?

Ответить
Развернуть ветку
Иван Жданович

Удачи вам с LDA ))

Ответить
Развернуть ветку
Виктор Петров
Автор

Ну так и LSI народы не формулой считают, а тупо дёргая "Похожее" с серпа или из "Акварель-генератора".
Факт, что когда я слышу про LSI - рука тянется к парабеллуму. И глаз дергается

Ответить
Развернуть ветку
Иван Жданович

LSI придумали копирайтеры, чтобы брать дороже)) Реально тут ничего нового нет из того что и так делалось ранее

Ответить
Развернуть ветку
Ольга Маньшина

Они уже охладели к LSI. Теперь комильфо - копирайтер-маркетолог, он же создатель продающих текстов.

Ответить
Развернуть ветку
Виктор Петров
Автор

Опять к продающим текстам вернулись? А как же "гипнотический копирайтинг", "бронебойный", "вкусный" и прочее писательское искусство?
Не иначе как ещё пару заводов закрыли

Ответить
Развернуть ветку
Ольга Маньшина

Вот Так Тоже Уже Почти Не Пишут )

Ответить
Развернуть ветку
Виктор Петров
Автор

я СЕГОДНЯ видел ВОТ ТАКОЕ нАПИСАНИЕ
так БОЛЬШЕ ЯРОСТИ!!

Ответить
Развернуть ветку
Ольга Маньшина

Капс дизайнеры любят (почему-то).

Ответить
Развернуть ветку
Ольга Маньшина

А вообще я жду архитекторов контента.

Ответить
Развернуть ветку
Илья Ефимов

Контентолога))

Ответить
Развернуть ветку
Ольга Маньшина

Это что-то на астрологическом? )
Мы же о серьёзном, поэтому - проектирование, дизайн, архитектура контента. И где-то даже его программирование )

Ответить
Развернуть ветку
Виктор Петров
Автор

Ну да, об чём и речь. Термин вытащен инфоцыганами, теперь его и не истребить.

Ответить
Развернуть ветку
Читать все 50 комментариев
null