{"id":14286,"url":"\/distributions\/14286\/click?bit=1&hash=d1e315456c2550b969eff5276b8894057db7c9f3635d69a38d108a0d3b909097","hash":"d1e315456c2550b969eff5276b8894057db7c9f3635d69a38d108a0d3b909097","title":"\u041f\u043e\u0440\u0430\u0431\u043e\u0442\u0430\u0442\u044c \u043d\u0430\u0434 \u043a\u0440\u0443\u043f\u043d\u0435\u0439\u0448\u0438\u043c\u0438 \u0418\u0422-\u043f\u0440\u043e\u0435\u043a\u0442\u0430\u043c\u0438 \u0441\u0442\u0440\u0430\u043d\u044b","buttonText":"","imageUuid":""}

SEO из 2021 в 2022: мои выводы за год

Примерно в это время года в народе принято публиковать статьи на тему «SEO умерло» и «Тренды SEO в следующем году». Я такое ни разу не писал и давно не читаю, но год был настолько странным, что я решил как минимум для себя сформулировать некоторые впечатления. Итак, поехали.

Если вы думаете, что тут будет про голосовой поиск, смартфоны, полезный контент, экспертность, пользовательский опыт и прочее блаблабла – нет. Чеклистов, советов и пророчеств тут тоже не будет. Это просто хаотичный набор впечатлений и выводов частного характера.

Увеличение объёмов данных

Даже базовый аудит сайта стал занятием слишком объёмным и требующим больших ресурсов по обработке данных. Заниматься этим дальше без привлечения машинной обработки нет никакого смысла.

Ещё полтора года назад подготовка короткого аудита занимала 1-2 часа: было достаточно по верхам собрать данные из нескольких сервисов, бегло пробежаться по результатам сканирования и сделать выводы. Уже к концу 2020 только сбор данных стал занимать многие часы, а то и дни. Абсолютно недостаточно «выдрать» лишь число страниц, проверить на соответствие их количеству в индексе, проверить редиректы и т.п. Сейчас вы должны спарсить сайт, выбрав правила парсинга основных ботов поисковых систем, притом в двух режимах: в режиме парсинга HTML, а потом ещё – JS. А после этого – сопоставить результаты (Screaming Frog, спасибо за эту возможность!).

Зачем? – Гуглобот, например, проходит ваш сайт именно так: вначале – HTML, потом, при повторном визите когда-нибудь – рендерит JS. И если важный контент у вас выводится средствами javascript или AJAX, гуглобот его просто не увидит, а вы об этом даже не узнаете (привет сайтам на Tilda, WIX и прочим чудесам научной мысли).

Примечание. Уважаемые любители колдовать над кодом сайта для получения наилучших результатов в Google Speed Insights! Пожалуйста, не забывайте проверять, что вы там наоптимизировали. «Ускоренный» таким образом сайт спустя время может начать вылетать из поиска, а клиенты – искать блох в виде «плохих» ссылок, накруток ПФ, или подозревать применение других средств негативного SEO конкурентами. А виноваты – вы.

Факт, что данных собрать и перелопатить уже необходимо кратно больше. И чтобы не закопаться в цифрах, нужен дополнительный инструментарий для обработки этих цифр. Количество собираемых и анализируемых данных настолько возросло, что обрабатывать его вручную, глазками и ручками, абсолютно недостаточно. Для этого нужно использовать машинные средства.

Если вы занимаетесь техническим SEO, без знания Python или R уже не обойтись. А в перспективе недурно бы научиться работать с Power BI: дашборды много нагляднее любых таблиц позволят выявить скрытые проблемы и покажут общую динамику, которую легко пропустить в менее интуитивно понятном представлении.

Тексты

Если вы до сих пор по старинке и заветам инфоцыган всё ещё ограничиваетесь подсчетом вхождений ключевых слов в рамках страницы – есть смысл остановиться и пересмотреть свои методы работы с текстами. Семантический поиск и алгоритмы-трансформеры в этой сфере перевернули всё с ног на голову.

Доставайте учебники по информационному поиску и ищите разделы, где описывается веб-граф. Ещё не так давно, буквально пару лет назад, можно было въехать в топы на сайте-одностраничнике, если удавалось развернуть в рамках одного документа семантическую структуру, воткнуть нужные ключевики и коммерческие блоки. Эта тема закрыта.

Хуже того: если семантическая структура вашего сайта в меньшей мере соответствует некоторому типовому графу, оцениваемому не только в рамках сайта, но и в связи с внешними узлами, то вы сливаете. В конкурентных тематиках это использовали практически с момента выкатывания YATI, нещадно раздувая объёмы сайтов за счёт добавления дополнительных посадочных страниц. Никакой математики, просто грубые манипуляции и ловкость рук. И даже это срабатывало: достаточно было добавить теговых страниц по самым диким запросам-нулёвкам – и общая категория росла в видимости.

Понятно, что это временное явление, и если на страницу нет трафика – это прямой путь под МПК и его аналоги. Но трафик, как показывает практика – вопрос решаемый, как минимум – на уровне манипуляций. И здесь нам на помощь приходят лучшие друзья человека – поведенческие боты.

Накрутки поведенческих факторов

Вообще говоря, я уверен, что есть только два варианта: либо Яндекс сильно снизит важность поведенческих метрик в ранжировании, либо поисковый рынок ждёт коллапс. Причины просты: все проблемы с ранжированием в Яндексе так или иначе решаются трафиком, а отличать поведенческих ботов Яндекс не в состоянии. Вернее, очень даже в состоянии, как показали его эксперименты с Метрикой в сентябре 2021. Однако полноценно применять на практике – никак. Возможно, не хватает вычислительных ресурсов, или есть более серьёзные причины (например, резкая потеря трафика в рекламных системах), но факт остаётся фактом. После всех обещаний ситуация с накруткой поведенческих факторов только ухудшилась.

Судя по всему, специалисты Яндекса достаточно внимательно изучили актуальные способы накрутки ПФ и учли их в определении роботности визитов. С этого момента потенциальными роботами стали:

  • Люди, заходящие из закладок или соцсетей;

  • Посетители в режиме «Инкогнито» или с адблоком;

  • Люди, зашедшие не из топ-10;
  • Пользователи, зашедшие на сайт с «неправильными» запросами

и т.д.

И владельцы сайтов, глядя в «Метрику», видят, что вот день назад к ним зашёл бот, положил товар в «Корзину» и оплатил, ему отправили товар. До чего дошёл прогресс! Метрика, бывшая когда-то удобным инструментом для анализа статистики, теперь представляет картину вилами по воде. Фактически буквально: данные теперь пересчитываются, и не по разу, хоть скриншоты снимай для фиксации данных.

И это только те, кого Яндекс отфильтровал.

Гораздо хуже, что владельцы бизнесов сделали для себя выводы: хочешь в топ Яндекса – тебе нужны накрутки. Те же выводы сделали и SEO-специалисты. Не крутишь? – Ты не конкурентен, начинай – или нафиг с пляжа. И началась война CTR и накруток частотностей ключевых слов. Всё ещё смотрите общую частотность ключей в «Вордстат»? – У меня для вас плохие новости. Впрочем, работу с семантикой стоит рассмотреть отдельно.

Семантика

Похоже, наступили времена, когда работу с семантическим ядром и продвижением сайта по ключевым словам нужно пересматривать на корню.

Ну, вы помните: «ВЧ слишком общий и конкурентный, СЧ мы тоже сразу не потянем, давайте начнём с НЧ – там конкуренция пониже, а запросы очень конверсионные, выраженный коммерческий интент от разогретой аудитории…» – вы это либо слышали, либо сами говорили. С 2021 года это, кажется, утрачивает свою актуальность: похоже, что Яндекс открутил учёт запросного кворума. Иными словами, «хвосты» запроса он больше не учитывает, попросту отбрасывая их, и показывает результаты по самым частотным общим запросам, отдавая приоритет, конечно же, мегамаркетам. Никакого больше продвижения по «низкочастотке» – на вполне конкретный запрос Яндекс сначала покажет сгенерированное точное вхождение в своих сервисах, а потом общие странички WB, «Озон» и т.п. Даже если ничего похожего там по факту нету.

Если постараться, то где-то там, наверное, можно найти тёплое байковое одеяло красного цвета. Но придётся немножко постараться.

Но даже по частотным запросам из топа получать 3-5 визитов в день – уже норма. И не смотрите на частотки в «Вордстате», там все карты крапленые.

Забавно, но эти изменения негативно сказались и на самых глупых накрутчиках. Классическая схема, когда к запросу подставлялся домен или бренд, а через какое-то время накруток сайт вылезал и по запросам без подстановки бренда, больше не работает. Что накручивается – по тому и топы. Крутили вы «купить табуретки в интернет-магазине табуретка.ру» – будут вам по ним топы. А по «табуреткам» – нет. Спасибо хоть на этом, Яндекс.

Вот злонравия достойные плоды

Да, в Google запросы также понимаются слишком общо. Но как минимум, Google всё ещё понимает, что такое прямые вхождения, и вы всё ещё можете повлиять на выдачу хотя бы по низкочастотникам. Так что есть хоть какая-то альтернатива для владельцев малого и среднего бизнеса получать клиентов из поиска «белыми» или слегка «серыми» методами.

И опять всплывает тема приоритизации ключевиков: двигаетесь вы «белыми» способами или накручиваете ключи, неважно. Выбор неправильных ключевых слов притащит вам на сайт нецелевой трафик, или вы попросту не сможете конкурировать с более серьёзными сайтами.

Продвижение статьями

Информационные сайты. Именно с них я когда-то начинал. Перечень задач был минимальным: у вас есть какой-то сайт, вы размещаете на нём действительно качественный контент – пара недель, и вы в топе. Больше статей – больше трафика. Вопрос, как всё это добро монетизировать – как второстепенный. Всё предсказуемо.

Тревожные звоночки зазвонили ещё в 2020, а в 2021 их звон перерос в гул погребального колокола. Информационники умерли. Несмотря на любые заверения представителей поисковых систем (про YMYL, авторитетность, контент-король) собственно качество контента со всей его информативностью, соответствием фактам, текстовой оптимизацией и прочим уже не играет никакой роли. Хост и трафик (возраст, ссылки и поведенческие) – вот на что смотрят ПС в первую очередь. Собственно, закономерно: зачем тащить в топы сайты, куда никто не ходит? Зачем тратить ресурсы на оценку какого-то новичка? И тут мы переходим к самой неприятной части нововведений 2021 года.

Сканирование и индексация

Думается, все вебмастера и владельцы сайтов заметили, как замедлилась скорость индексации новых страниц, ссылок, как медленно уходят из выдачи 404-е URL. Я лично долгое время утешал себя мыслью, что речь лишь о нехватке ресурсов. Ну, не хватает мощности дата-центров обработать всё возрастающие потоки информации. Вопрос так или иначе решится. Квантовые компьютеры на подходе!

Нет. Всё оказалось печальнее: теперь, если вы хотите что-то получить от ПС, вам нужно убедить их, что ваш контент вообще чего-то стоит. Стоит того, чтобы его найти, просканировать и внести в индекс – речь о топах даже не идёт.

Что для этого нужно? – Те самые положительные сигналы, которые ПС не могут игнорировать. А это всё те же ссылки, всё тот же трафик. Ссылки сами себя не поставят, и просто так никого из интернета на вашу страничку не занесёт. А это значит, что либо вы очень популярный бренд, у вас хорошо раскачанные аккаунты в соцсетях с ордой подписчиков, либо вы активно увеличиваете количество ссылок и нагоняете трафик на сайт откуда только возможно. Старый хост (читай – дроп, PBN), тонны ссылок, популярность у пользователей (или как там формулирует свой ИКС Яндекс) – и пошло-поехало, как Буратино, которому папа Карло вместо ноги прикрутил колесо.

Большое спасибо ПС, выкатившим API для отправки в индекс больших пачек URL. Это пока ничего не изменило, но приятно, что о вебмастерах и оптимизаторах кто-то помнит. А там – поглядим.

Ссылочное

Хорошая новость: ссылочное продолжает работать, если вы понимаете, что и зачем делаете. Нельзя просто так пойти на «Сапу» и не приходя в сознание прикупить ссылок, или заказать ссылочное у очередного «крауд-маркетолога», – так, чтобы это сработало в плюс. Хотя, конечно, бывает и такое, если вы весь год вели себя хорошо. Чтобы ссылочное сработало, вам нужно очень придирчиво просчитывать ключи для анкоров, готовить хороший контент, но что важнее – очень придирчиво отбирать доноров.

Просто потому, что очередной пресс-релиз или рерайт рерайта, размещенный на падающем сайтике, которого вообще не должно бы быть, толку никакого не даст. Можно месяцами ждать, когда ссылка проиндексируется, и не помогут ни вспомогательные ссылки на этого донора, ни репосты в соцсети, ни прокликивание. Всё просто: старый больной гуглобот посмотрит на вашу страничку с ссылкой и скажет противным голосом: «Не хочу». И ничего с этим не поделать.

Он такой фигни уже навидался, ровно в тех же словах и с такими же картинками, так что извините.

Соцсети и безкликовая выдача

Значительная часть потенциальных пользователей интернета прочно поселилась в «Инстаграм» – гиблом месте, откуда нет выхода. Они там ищут, находят и покупают, и поиск им нужен разве что для запросов в духе «Это чё?» – а на этот случай поисковые системы придумали быстрые ответы. Они вообще многое придумали, чтобы ползатель не уползал за пределы выдачи. Судя по мечтаниям вслух представителей Яндекса, они и продажи готовы реализовать прямо с выдачи. Вот товарная карточка, вот кнопка «купить» прямо в серпе, какой вам ещё трафик на сайт?

Судя по данным «Яндекс-Радар», весь минувший год доля Яндекса по трафику в рунете составляла 60%, а Google – 38. В объективности этих данных можно усомниться, с учётом того, что число пользователей Яндекса прирастает за счёт поведенческих ботов всё больше и больше, по мере того, что другие способы продвижения уже работают постольку-поскольку. А график-то – не растёт. Что ж, это логично: поисковая выдача, заспамленная Директом, «колдунщиками», бесконечными сервисами Яндекса – не то, что ожидаешь увидеть, обращаясь с запросом. А на «Авито» с «Леруа» можно и напрямую идти.

По опросам Hubspot: 51,5% пользователей вполне довольны тем, что бескликовая выдача сразу им представляет. Да, речь больше об информационных запросах, да и заинтересованной такую аудиторию назвать нельзя. И тем не менее – это посетители, которых «съела» выдача. И их число со временем будет только расти.

Бюджеты на продвижение

Бюджеты. Увы и ах. Стоимость продвижения, у которого есть хотя бы гипотетическая эффективность, растёт в цене. Если вы пользовались услугами сына маминой подруги, который покупал ссылки с «Миры» и закупал по десятку текстов на «Адвеге» на тысячу рублей, и всё было в порядке – дальше так не получится. Процессы усложнились, а продвижение требует куда больше ресурсов, чем может позволить себе небольшой магазин или сайт услуг. И дело тут не в жадности «сеошников». Поисковые системы предъявляют всё новые требования к бизнесам, вытесняя с поискового рынка небольших игроков.

Всё это напоминает «ночь длинных ковшей» в Москве, когда разом были снесены все ларьки и торговые павильоны, чтобы люди шли в ТЦ и супермаркеты. Нет, до сих пор в топе среди «монстров» можно увидеть и залётный дорвей, и веб-представительство «Шаурмы от Ашота». Да и, собственно, активные клиенты маркетов вообще уже не обращаются к поиску: они просто открывают на смартфоне приложение своего любимого магазина, где у них есть и программа лояльности, и скидки, и ищут товар сразу там. У вас есть приложение? Понятно. А сотку тысяч на ссылки можете выделять? Хорошо.

А теперь смотрим среднюю температуру по больнице.

  • Час SEO-специалиста уровня middle: от 1 тысячи рублей. В агентствах, как правило, чуть дороже, им аккаунтов кормить надо.

  • Стоимость размещения одной ссылки: от 300 рублей на ссылочной бирже.

  • Подготовка 1 текста пристойного уровня: от 1 тысячи рублей (на биржах можно купить и дешевле, но поверьте, это будет совсем плохой текст).

  • Добавляем сюда стоимость сервисов (тот же keys.so подорожал, например, в 3 раза), аренды серверов, софта, прокси и всякой мелочевки типа съёма позиций разово в том же «Топвизоре» – и-и-и…

Кусается. И выкинуть из списка ничего нельзя.

А малый и средний бизнес не стал богаче, «белые» методы SEO – эффективнее, а те способы, которые могут гарантировать какой-то результат, не подешевели. Единственное, что хоть как-то уравновешивает спрос, предложение и бюджеты – это орды джунов, готовых взяться за любую задачу на любом бюджете, готовых с помощью своей «плитки тегов» потеснить из выдачи «Вайлдберриз» и «Яндекс-Маркет». Да здравствует инфобизнес! Благодаря ему люди не теряют надежды.

В заключение

Значит ли вся эта писанина выше, что я разочарован в SEO? Выглядит-то это как-то, мягко выражаясь, непозитивно.

Отнюдь нет. Правила игры усложняются – не более того. Поисковики усложняют требования – а мы крепчаем. Лично я для себя поставил с десяток глобальных задач, связанных с ликвидацией некоторых пробелов, отработкой нового инструментария, проверки пачки гипотез. Меняется высота планочки, но в первый раз что ли? Чем сложнее правила – тем интереснее играть.

0
83 комментария
Написать комментарий...
Oleg Oleg

Общий вывод простой поиск стал работать значительно хуже чем раньше и выдача в поиске для потребителя стала менее удобной. Хотя сам потребитель думает что что наоборот.

Ответить
Развернуть ветку
Виктор Петров
Автор

Там всё хорошо, только найти ничего не получается. У меня любимое развлечение появилось: просто на ключах и описаниях попытаться обнаружить в выдаче что-то.
Буксует искусственный интеллект, лажает.

Ответить
Развернуть ветку
Антон Ляшенко

Как же я рад что я забыл что бывает такое помойное видро как Яша)))

Ответить
Развернуть ветку
Виктор Петров
Автор

Гугл недалеко ушёл. Выдачу цензурировать начали, те же "трансформеры". Спама правда гораздо меньше, тут не сравнить.

Ответить
Развернуть ветку
Сергей Лукин

Гугл превратился в помойный контейнер. В выдаче один спам и нерелевантный контент. Картинки хрен найдешь и хрен откроешь.

Ответить
Развернуть ветку
Жаналинов Ильяс

А когда он хорошо работал?

Ответить
Развернуть ветку
О. Чайкина

Многоинтентный запрос )
И это вселяет надежду на то, что роботы нас совсем всё-таки не заменят.

Ответить
Развернуть ветку
80 комментариев
Раскрывать всегда