{"id":14293,"url":"\/distributions\/14293\/click?bit=1&hash=05c87a3ce0b7c4063dd46190317b7d4a16bc23b8ced3bfac605d44f253650a0f","hash":"05c87a3ce0b7c4063dd46190317b7d4a16bc23b8ced3bfac605d44f253650a0f","title":"\u0421\u043e\u0437\u0434\u0430\u0442\u044c \u043d\u043e\u0432\u044b\u0439 \u0441\u0435\u0440\u0432\u0438\u0441 \u043d\u0435 \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0432 \u043d\u0438 \u043a\u043e\u043f\u0435\u0439\u043a\u0438","buttonText":"","imageUuid":""}

SEO из 2021 в 2022: мои выводы за год

Примерно в это время года в народе принято публиковать статьи на тему «SEO умерло» и «Тренды SEO в следующем году». Я такое ни разу не писал и давно не читаю, но год был настолько странным, что я решил как минимум для себя сформулировать некоторые впечатления. Итак, поехали.

Если вы думаете, что тут будет про голосовой поиск, смартфоны, полезный контент, экспертность, пользовательский опыт и прочее блаблабла – нет. Чеклистов, советов и пророчеств тут тоже не будет. Это просто хаотичный набор впечатлений и выводов частного характера.

Увеличение объёмов данных

Даже базовый аудит сайта стал занятием слишком объёмным и требующим больших ресурсов по обработке данных. Заниматься этим дальше без привлечения машинной обработки нет никакого смысла.

Ещё полтора года назад подготовка короткого аудита занимала 1-2 часа: было достаточно по верхам собрать данные из нескольких сервисов, бегло пробежаться по результатам сканирования и сделать выводы. Уже к концу 2020 только сбор данных стал занимать многие часы, а то и дни. Абсолютно недостаточно «выдрать» лишь число страниц, проверить на соответствие их количеству в индексе, проверить редиректы и т.п. Сейчас вы должны спарсить сайт, выбрав правила парсинга основных ботов поисковых систем, притом в двух режимах: в режиме парсинга HTML, а потом ещё – JS. А после этого – сопоставить результаты (Screaming Frog, спасибо за эту возможность!).

Зачем? – Гуглобот, например, проходит ваш сайт именно так: вначале – HTML, потом, при повторном визите когда-нибудь – рендерит JS. И если важный контент у вас выводится средствами javascript или AJAX, гуглобот его просто не увидит, а вы об этом даже не узнаете (привет сайтам на Tilda, WIX и прочим чудесам научной мысли).

Примечание. Уважаемые любители колдовать над кодом сайта для получения наилучших результатов в Google Speed Insights! Пожалуйста, не забывайте проверять, что вы там наоптимизировали. «Ускоренный» таким образом сайт спустя время может начать вылетать из поиска, а клиенты – искать блох в виде «плохих» ссылок, накруток ПФ, или подозревать применение других средств негативного SEO конкурентами. А виноваты – вы.

Факт, что данных собрать и перелопатить уже необходимо кратно больше. И чтобы не закопаться в цифрах, нужен дополнительный инструментарий для обработки этих цифр. Количество собираемых и анализируемых данных настолько возросло, что обрабатывать его вручную, глазками и ручками, абсолютно недостаточно. Для этого нужно использовать машинные средства.

Если вы занимаетесь техническим SEO, без знания Python или R уже не обойтись. А в перспективе недурно бы научиться работать с Power BI: дашборды много нагляднее любых таблиц позволят выявить скрытые проблемы и покажут общую динамику, которую легко пропустить в менее интуитивно понятном представлении.

Тексты

Если вы до сих пор по старинке и заветам инфоцыган всё ещё ограничиваетесь подсчетом вхождений ключевых слов в рамках страницы – есть смысл остановиться и пересмотреть свои методы работы с текстами. Семантический поиск и алгоритмы-трансформеры в этой сфере перевернули всё с ног на голову.

Доставайте учебники по информационному поиску и ищите разделы, где описывается веб-граф. Ещё не так давно, буквально пару лет назад, можно было въехать в топы на сайте-одностраничнике, если удавалось развернуть в рамках одного документа семантическую структуру, воткнуть нужные ключевики и коммерческие блоки. Эта тема закрыта.

Хуже того: если семантическая структура вашего сайта в меньшей мере соответствует некоторому типовому графу, оцениваемому не только в рамках сайта, но и в связи с внешними узлами, то вы сливаете. В конкурентных тематиках это использовали практически с момента выкатывания YATI, нещадно раздувая объёмы сайтов за счёт добавления дополнительных посадочных страниц. Никакой математики, просто грубые манипуляции и ловкость рук. И даже это срабатывало: достаточно было добавить теговых страниц по самым диким запросам-нулёвкам – и общая категория росла в видимости.

Понятно, что это временное явление, и если на страницу нет трафика – это прямой путь под МПК и его аналоги. Но трафик, как показывает практика – вопрос решаемый, как минимум – на уровне манипуляций. И здесь нам на помощь приходят лучшие друзья человека – поведенческие боты.

Накрутки поведенческих факторов

Вообще говоря, я уверен, что есть только два варианта: либо Яндекс сильно снизит важность поведенческих метрик в ранжировании, либо поисковый рынок ждёт коллапс. Причины просты: все проблемы с ранжированием в Яндексе так или иначе решаются трафиком, а отличать поведенческих ботов Яндекс не в состоянии. Вернее, очень даже в состоянии, как показали его эксперименты с Метрикой в сентябре 2021. Однако полноценно применять на практике – никак. Возможно, не хватает вычислительных ресурсов, или есть более серьёзные причины (например, резкая потеря трафика в рекламных системах), но факт остаётся фактом. После всех обещаний ситуация с накруткой поведенческих факторов только ухудшилась.

Судя по всему, специалисты Яндекса достаточно внимательно изучили актуальные способы накрутки ПФ и учли их в определении роботности визитов. С этого момента потенциальными роботами стали:

  • Люди, заходящие из закладок или соцсетей;

  • Посетители в режиме «Инкогнито» или с адблоком;

  • Люди, зашедшие не из топ-10;
  • Пользователи, зашедшие на сайт с «неправильными» запросами

и т.д.

И владельцы сайтов, глядя в «Метрику», видят, что вот день назад к ним зашёл бот, положил товар в «Корзину» и оплатил, ему отправили товар. До чего дошёл прогресс! Метрика, бывшая когда-то удобным инструментом для анализа статистики, теперь представляет картину вилами по воде. Фактически буквально: данные теперь пересчитываются, и не по разу, хоть скриншоты снимай для фиксации данных.

И это только те, кого Яндекс отфильтровал.

Гораздо хуже, что владельцы бизнесов сделали для себя выводы: хочешь в топ Яндекса – тебе нужны накрутки. Те же выводы сделали и SEO-специалисты. Не крутишь? – Ты не конкурентен, начинай – или нафиг с пляжа. И началась война CTR и накруток частотностей ключевых слов. Всё ещё смотрите общую частотность ключей в «Вордстат»? – У меня для вас плохие новости. Впрочем, работу с семантикой стоит рассмотреть отдельно.

Семантика

Похоже, наступили времена, когда работу с семантическим ядром и продвижением сайта по ключевым словам нужно пересматривать на корню.

Ну, вы помните: «ВЧ слишком общий и конкурентный, СЧ мы тоже сразу не потянем, давайте начнём с НЧ – там конкуренция пониже, а запросы очень конверсионные, выраженный коммерческий интент от разогретой аудитории…» – вы это либо слышали, либо сами говорили. С 2021 года это, кажется, утрачивает свою актуальность: похоже, что Яндекс открутил учёт запросного кворума. Иными словами, «хвосты» запроса он больше не учитывает, попросту отбрасывая их, и показывает результаты по самым частотным общим запросам, отдавая приоритет, конечно же, мегамаркетам. Никакого больше продвижения по «низкочастотке» – на вполне конкретный запрос Яндекс сначала покажет сгенерированное точное вхождение в своих сервисах, а потом общие странички WB, «Озон» и т.п. Даже если ничего похожего там по факту нету.

Если постараться, то где-то там, наверное, можно найти тёплое байковое одеяло красного цвета. Но придётся немножко постараться.

Но даже по частотным запросам из топа получать 3-5 визитов в день – уже норма. И не смотрите на частотки в «Вордстате», там все карты крапленые.

Забавно, но эти изменения негативно сказались и на самых глупых накрутчиках. Классическая схема, когда к запросу подставлялся домен или бренд, а через какое-то время накруток сайт вылезал и по запросам без подстановки бренда, больше не работает. Что накручивается – по тому и топы. Крутили вы «купить табуретки в интернет-магазине табуретка.ру» – будут вам по ним топы. А по «табуреткам» – нет. Спасибо хоть на этом, Яндекс.

Вот злонравия достойные плоды

Да, в Google запросы также понимаются слишком общо. Но как минимум, Google всё ещё понимает, что такое прямые вхождения, и вы всё ещё можете повлиять на выдачу хотя бы по низкочастотникам. Так что есть хоть какая-то альтернатива для владельцев малого и среднего бизнеса получать клиентов из поиска «белыми» или слегка «серыми» методами.

И опять всплывает тема приоритизации ключевиков: двигаетесь вы «белыми» способами или накручиваете ключи, неважно. Выбор неправильных ключевых слов притащит вам на сайт нецелевой трафик, или вы попросту не сможете конкурировать с более серьёзными сайтами.

Продвижение статьями

Информационные сайты. Именно с них я когда-то начинал. Перечень задач был минимальным: у вас есть какой-то сайт, вы размещаете на нём действительно качественный контент – пара недель, и вы в топе. Больше статей – больше трафика. Вопрос, как всё это добро монетизировать – как второстепенный. Всё предсказуемо.

Тревожные звоночки зазвонили ещё в 2020, а в 2021 их звон перерос в гул погребального колокола. Информационники умерли. Несмотря на любые заверения представителей поисковых систем (про YMYL, авторитетность, контент-король) собственно качество контента со всей его информативностью, соответствием фактам, текстовой оптимизацией и прочим уже не играет никакой роли. Хост и трафик (возраст, ссылки и поведенческие) – вот на что смотрят ПС в первую очередь. Собственно, закономерно: зачем тащить в топы сайты, куда никто не ходит? Зачем тратить ресурсы на оценку какого-то новичка? И тут мы переходим к самой неприятной части нововведений 2021 года.

Сканирование и индексация

Думается, все вебмастера и владельцы сайтов заметили, как замедлилась скорость индексации новых страниц, ссылок, как медленно уходят из выдачи 404-е URL. Я лично долгое время утешал себя мыслью, что речь лишь о нехватке ресурсов. Ну, не хватает мощности дата-центров обработать всё возрастающие потоки информации. Вопрос так или иначе решится. Квантовые компьютеры на подходе!

Нет. Всё оказалось печальнее: теперь, если вы хотите что-то получить от ПС, вам нужно убедить их, что ваш контент вообще чего-то стоит. Стоит того, чтобы его найти, просканировать и внести в индекс – речь о топах даже не идёт.

Что для этого нужно? – Те самые положительные сигналы, которые ПС не могут игнорировать. А это всё те же ссылки, всё тот же трафик. Ссылки сами себя не поставят, и просто так никого из интернета на вашу страничку не занесёт. А это значит, что либо вы очень популярный бренд, у вас хорошо раскачанные аккаунты в соцсетях с ордой подписчиков, либо вы активно увеличиваете количество ссылок и нагоняете трафик на сайт откуда только возможно. Старый хост (читай – дроп, PBN), тонны ссылок, популярность у пользователей (или как там формулирует свой ИКС Яндекс) – и пошло-поехало, как Буратино, которому папа Карло вместо ноги прикрутил колесо.

Большое спасибо ПС, выкатившим API для отправки в индекс больших пачек URL. Это пока ничего не изменило, но приятно, что о вебмастерах и оптимизаторах кто-то помнит. А там – поглядим.

Ссылочное

Хорошая новость: ссылочное продолжает работать, если вы понимаете, что и зачем делаете. Нельзя просто так пойти на «Сапу» и не приходя в сознание прикупить ссылок, или заказать ссылочное у очередного «крауд-маркетолога», – так, чтобы это сработало в плюс. Хотя, конечно, бывает и такое, если вы весь год вели себя хорошо. Чтобы ссылочное сработало, вам нужно очень придирчиво просчитывать ключи для анкоров, готовить хороший контент, но что важнее – очень придирчиво отбирать доноров.

Просто потому, что очередной пресс-релиз или рерайт рерайта, размещенный на падающем сайтике, которого вообще не должно бы быть, толку никакого не даст. Можно месяцами ждать, когда ссылка проиндексируется, и не помогут ни вспомогательные ссылки на этого донора, ни репосты в соцсети, ни прокликивание. Всё просто: старый больной гуглобот посмотрит на вашу страничку с ссылкой и скажет противным голосом: «Не хочу». И ничего с этим не поделать.

Он такой фигни уже навидался, ровно в тех же словах и с такими же картинками, так что извините.

Соцсети и безкликовая выдача

Значительная часть потенциальных пользователей интернета прочно поселилась в «Инстаграм» – гиблом месте, откуда нет выхода. Они там ищут, находят и покупают, и поиск им нужен разве что для запросов в духе «Это чё?» – а на этот случай поисковые системы придумали быстрые ответы. Они вообще многое придумали, чтобы ползатель не уползал за пределы выдачи. Судя по мечтаниям вслух представителей Яндекса, они и продажи готовы реализовать прямо с выдачи. Вот товарная карточка, вот кнопка «купить» прямо в серпе, какой вам ещё трафик на сайт?

Судя по данным «Яндекс-Радар», весь минувший год доля Яндекса по трафику в рунете составляла 60%, а Google – 38. В объективности этих данных можно усомниться, с учётом того, что число пользователей Яндекса прирастает за счёт поведенческих ботов всё больше и больше, по мере того, что другие способы продвижения уже работают постольку-поскольку. А график-то – не растёт. Что ж, это логично: поисковая выдача, заспамленная Директом, «колдунщиками», бесконечными сервисами Яндекса – не то, что ожидаешь увидеть, обращаясь с запросом. А на «Авито» с «Леруа» можно и напрямую идти.

По опросам Hubspot: 51,5% пользователей вполне довольны тем, что бескликовая выдача сразу им представляет. Да, речь больше об информационных запросах, да и заинтересованной такую аудиторию назвать нельзя. И тем не менее – это посетители, которых «съела» выдача. И их число со временем будет только расти.

Бюджеты на продвижение

Бюджеты. Увы и ах. Стоимость продвижения, у которого есть хотя бы гипотетическая эффективность, растёт в цене. Если вы пользовались услугами сына маминой подруги, который покупал ссылки с «Миры» и закупал по десятку текстов на «Адвеге» на тысячу рублей, и всё было в порядке – дальше так не получится. Процессы усложнились, а продвижение требует куда больше ресурсов, чем может позволить себе небольшой магазин или сайт услуг. И дело тут не в жадности «сеошников». Поисковые системы предъявляют всё новые требования к бизнесам, вытесняя с поискового рынка небольших игроков.

Всё это напоминает «ночь длинных ковшей» в Москве, когда разом были снесены все ларьки и торговые павильоны, чтобы люди шли в ТЦ и супермаркеты. Нет, до сих пор в топе среди «монстров» можно увидеть и залётный дорвей, и веб-представительство «Шаурмы от Ашота». Да и, собственно, активные клиенты маркетов вообще уже не обращаются к поиску: они просто открывают на смартфоне приложение своего любимого магазина, где у них есть и программа лояльности, и скидки, и ищут товар сразу там. У вас есть приложение? Понятно. А сотку тысяч на ссылки можете выделять? Хорошо.

А теперь смотрим среднюю температуру по больнице.

  • Час SEO-специалиста уровня middle: от 1 тысячи рублей. В агентствах, как правило, чуть дороже, им аккаунтов кормить надо.

  • Стоимость размещения одной ссылки: от 300 рублей на ссылочной бирже.

  • Подготовка 1 текста пристойного уровня: от 1 тысячи рублей (на биржах можно купить и дешевле, но поверьте, это будет совсем плохой текст).

  • Добавляем сюда стоимость сервисов (тот же keys.so подорожал, например, в 3 раза), аренды серверов, софта, прокси и всякой мелочевки типа съёма позиций разово в том же «Топвизоре» – и-и-и…

Кусается. И выкинуть из списка ничего нельзя.

А малый и средний бизнес не стал богаче, «белые» методы SEO – эффективнее, а те способы, которые могут гарантировать какой-то результат, не подешевели. Единственное, что хоть как-то уравновешивает спрос, предложение и бюджеты – это орды джунов, готовых взяться за любую задачу на любом бюджете, готовых с помощью своей «плитки тегов» потеснить из выдачи «Вайлдберриз» и «Яндекс-Маркет». Да здравствует инфобизнес! Благодаря ему люди не теряют надежды.

В заключение

Значит ли вся эта писанина выше, что я разочарован в SEO? Выглядит-то это как-то, мягко выражаясь, непозитивно.

Отнюдь нет. Правила игры усложняются – не более того. Поисковики усложняют требования – а мы крепчаем. Лично я для себя поставил с десяток глобальных задач, связанных с ликвидацией некоторых пробелов, отработкой нового инструментария, проверки пачки гипотез. Меняется высота планочки, но в первый раз что ли? Чем сложнее правила – тем интереснее играть.

0
83 комментария
Написать комментарий...
Дмитрий Александрович

Еще можно упомянуть осеннюю чистку Яндекс.Справочника от компаний без реальных адресов в регионах. Старые способы обхода проверок уже не срабатывают. Хотя мне тут до конца не ясно стоит ли игра свеч и теряем ли реально что-то в плане геопривязки и бонусов к региональному ранжированию при переходе на карточки онлайн-организаций.

Ответить
Развернуть ветку
Виктор Петров
Автор

У них реальные филиалы с подтвержденными акками в бывшем "Справочнике" - реальный фактор ранжирования. Едва ли кто-то с "Карт" ходит, а вот на запросы в поиске влияет однозначно.

Ответить
Развернуть ветку
Aleks Cloud

На картах ищут и еще как. Есть слабо развитый проект, так там с карт переходов больше чем с поиска, и более того - есть заказы. С другой стороны, на карты они попадают из поиска, по тематическому запросу. То есть нужна оптимизация ресурса, чтобы карты привязали сайт к определенным запросам.

Ответить
Развернуть ветку
AAADA.RU

У меня такая же ситуация была, с карт трафика в 2 а иногда и 3 раза больше было чем с поиска, сайт топ 1

Ответить
Развернуть ветку
Жаналинов Ильяс

С карт ходят, только вот зависит от ниши. Даже в навигаторах забивают в тачках по справочнику конечный адрес, я тогда сам удивился.

Ответить
Развернуть ветку
80 комментариев
Раскрывать всегда