{"id":14285,"url":"\/distributions\/14285\/click?bit=1&hash=346f3dd5dee2d88930b559bfe049bf63f032c3f6597a81b363a99361cc92d37d","title":"\u0421\u0442\u0438\u043f\u0435\u043d\u0434\u0438\u044f, \u043a\u043e\u0442\u043e\u0440\u0443\u044e \u043c\u043e\u0436\u043d\u043e \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0442\u044c \u043d\u0430 \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u0435 \u0438\u043b\u0438 \u043f\u0443\u0442\u0435\u0448\u0435\u0441\u0442\u0432\u0438\u044f","buttonText":"","imageUuid":""}

SEO из 2021 в 2022: мои выводы за год

Примерно в это время года в народе принято публиковать статьи на тему «SEO умерло» и «Тренды SEO в следующем году». Я такое ни разу не писал и давно не читаю, но год был настолько странным, что я решил как минимум для себя сформулировать некоторые впечатления. Итак, поехали.

Если вы думаете, что тут будет про голосовой поиск, смартфоны, полезный контент, экспертность, пользовательский опыт и прочее блаблабла – нет. Чеклистов, советов и пророчеств тут тоже не будет. Это просто хаотичный набор впечатлений и выводов частного характера.

Увеличение объёмов данных

Даже базовый аудит сайта стал занятием слишком объёмным и требующим больших ресурсов по обработке данных. Заниматься этим дальше без привлечения машинной обработки нет никакого смысла.

Ещё полтора года назад подготовка короткого аудита занимала 1-2 часа: было достаточно по верхам собрать данные из нескольких сервисов, бегло пробежаться по результатам сканирования и сделать выводы. Уже к концу 2020 только сбор данных стал занимать многие часы, а то и дни. Абсолютно недостаточно «выдрать» лишь число страниц, проверить на соответствие их количеству в индексе, проверить редиректы и т.п. Сейчас вы должны спарсить сайт, выбрав правила парсинга основных ботов поисковых систем, притом в двух режимах: в режиме парсинга HTML, а потом ещё – JS. А после этого – сопоставить результаты (Screaming Frog, спасибо за эту возможность!).

Зачем? – Гуглобот, например, проходит ваш сайт именно так: вначале – HTML, потом, при повторном визите когда-нибудь – рендерит JS. И если важный контент у вас выводится средствами javascript или AJAX, гуглобот его просто не увидит, а вы об этом даже не узнаете (привет сайтам на Tilda, WIX и прочим чудесам научной мысли).

Примечание. Уважаемые любители колдовать над кодом сайта для получения наилучших результатов в Google Speed Insights! Пожалуйста, не забывайте проверять, что вы там наоптимизировали. «Ускоренный» таким образом сайт спустя время может начать вылетать из поиска, а клиенты – искать блох в виде «плохих» ссылок, накруток ПФ, или подозревать применение других средств негативного SEO конкурентами. А виноваты – вы.

Факт, что данных собрать и перелопатить уже необходимо кратно больше. И чтобы не закопаться в цифрах, нужен дополнительный инструментарий для обработки этих цифр. Количество собираемых и анализируемых данных настолько возросло, что обрабатывать его вручную, глазками и ручками, абсолютно недостаточно. Для этого нужно использовать машинные средства.

Если вы занимаетесь техническим SEO, без знания Python или R уже не обойтись. А в перспективе недурно бы научиться работать с Power BI: дашборды много нагляднее любых таблиц позволят выявить скрытые проблемы и покажут общую динамику, которую легко пропустить в менее интуитивно понятном представлении.

Тексты

Если вы до сих пор по старинке и заветам инфоцыган всё ещё ограничиваетесь подсчетом вхождений ключевых слов в рамках страницы – есть смысл остановиться и пересмотреть свои методы работы с текстами. Семантический поиск и алгоритмы-трансформеры в этой сфере перевернули всё с ног на голову.

Доставайте учебники по информационному поиску и ищите разделы, где описывается веб-граф. Ещё не так давно, буквально пару лет назад, можно было въехать в топы на сайте-одностраничнике, если удавалось развернуть в рамках одного документа семантическую структуру, воткнуть нужные ключевики и коммерческие блоки. Эта тема закрыта.

Хуже того: если семантическая структура вашего сайта в меньшей мере соответствует некоторому типовому графу, оцениваемому не только в рамках сайта, но и в связи с внешними узлами, то вы сливаете. В конкурентных тематиках это использовали практически с момента выкатывания YATI, нещадно раздувая объёмы сайтов за счёт добавления дополнительных посадочных страниц. Никакой математики, просто грубые манипуляции и ловкость рук. И даже это срабатывало: достаточно было добавить теговых страниц по самым диким запросам-нулёвкам – и общая категория росла в видимости.

Понятно, что это временное явление, и если на страницу нет трафика – это прямой путь под МПК и его аналоги. Но трафик, как показывает практика – вопрос решаемый, как минимум – на уровне манипуляций. И здесь нам на помощь приходят лучшие друзья человека – поведенческие боты.

Накрутки поведенческих факторов

Вообще говоря, я уверен, что есть только два варианта: либо Яндекс сильно снизит важность поведенческих метрик в ранжировании, либо поисковый рынок ждёт коллапс. Причины просты: все проблемы с ранжированием в Яндексе так или иначе решаются трафиком, а отличать поведенческих ботов Яндекс не в состоянии. Вернее, очень даже в состоянии, как показали его эксперименты с Метрикой в сентябре 2021. Однако полноценно применять на практике – никак. Возможно, не хватает вычислительных ресурсов, или есть более серьёзные причины (например, резкая потеря трафика в рекламных системах), но факт остаётся фактом. После всех обещаний ситуация с накруткой поведенческих факторов только ухудшилась.

Судя по всему, специалисты Яндекса достаточно внимательно изучили актуальные способы накрутки ПФ и учли их в определении роботности визитов. С этого момента потенциальными роботами стали:

  • Люди, заходящие из закладок или соцсетей;

  • Посетители в режиме «Инкогнито» или с адблоком;

  • Люди, зашедшие не из топ-10;
  • Пользователи, зашедшие на сайт с «неправильными» запросами

и т.д.

И владельцы сайтов, глядя в «Метрику», видят, что вот день назад к ним зашёл бот, положил товар в «Корзину» и оплатил, ему отправили товар. До чего дошёл прогресс! Метрика, бывшая когда-то удобным инструментом для анализа статистики, теперь представляет картину вилами по воде. Фактически буквально: данные теперь пересчитываются, и не по разу, хоть скриншоты снимай для фиксации данных.

И это только те, кого Яндекс отфильтровал.

Гораздо хуже, что владельцы бизнесов сделали для себя выводы: хочешь в топ Яндекса – тебе нужны накрутки. Те же выводы сделали и SEO-специалисты. Не крутишь? – Ты не конкурентен, начинай – или нафиг с пляжа. И началась война CTR и накруток частотностей ключевых слов. Всё ещё смотрите общую частотность ключей в «Вордстат»? – У меня для вас плохие новости. Впрочем, работу с семантикой стоит рассмотреть отдельно.

Семантика

Похоже, наступили времена, когда работу с семантическим ядром и продвижением сайта по ключевым словам нужно пересматривать на корню.

Ну, вы помните: «ВЧ слишком общий и конкурентный, СЧ мы тоже сразу не потянем, давайте начнём с НЧ – там конкуренция пониже, а запросы очень конверсионные, выраженный коммерческий интент от разогретой аудитории…» – вы это либо слышали, либо сами говорили. С 2021 года это, кажется, утрачивает свою актуальность: похоже, что Яндекс открутил учёт запросного кворума. Иными словами, «хвосты» запроса он больше не учитывает, попросту отбрасывая их, и показывает результаты по самым частотным общим запросам, отдавая приоритет, конечно же, мегамаркетам. Никакого больше продвижения по «низкочастотке» – на вполне конкретный запрос Яндекс сначала покажет сгенерированное точное вхождение в своих сервисах, а потом общие странички WB, «Озон» и т.п. Даже если ничего похожего там по факту нету.

Если постараться, то где-то там, наверное, можно найти тёплое байковое одеяло красного цвета. Но придётся немножко постараться.

Но даже по частотным запросам из топа получать 3-5 визитов в день – уже норма. И не смотрите на частотки в «Вордстате», там все карты крапленые.

Забавно, но эти изменения негативно сказались и на самых глупых накрутчиках. Классическая схема, когда к запросу подставлялся домен или бренд, а через какое-то время накруток сайт вылезал и по запросам без подстановки бренда, больше не работает. Что накручивается – по тому и топы. Крутили вы «купить табуретки в интернет-магазине табуретка.ру» – будут вам по ним топы. А по «табуреткам» – нет. Спасибо хоть на этом, Яндекс.

Вот злонравия достойные плоды

Да, в Google запросы также понимаются слишком общо. Но как минимум, Google всё ещё понимает, что такое прямые вхождения, и вы всё ещё можете повлиять на выдачу хотя бы по низкочастотникам. Так что есть хоть какая-то альтернатива для владельцев малого и среднего бизнеса получать клиентов из поиска «белыми» или слегка «серыми» методами.

И опять всплывает тема приоритизации ключевиков: двигаетесь вы «белыми» способами или накручиваете ключи, неважно. Выбор неправильных ключевых слов притащит вам на сайт нецелевой трафик, или вы попросту не сможете конкурировать с более серьёзными сайтами.

Продвижение статьями

Информационные сайты. Именно с них я когда-то начинал. Перечень задач был минимальным: у вас есть какой-то сайт, вы размещаете на нём действительно качественный контент – пара недель, и вы в топе. Больше статей – больше трафика. Вопрос, как всё это добро монетизировать – как второстепенный. Всё предсказуемо.

Тревожные звоночки зазвонили ещё в 2020, а в 2021 их звон перерос в гул погребального колокола. Информационники умерли. Несмотря на любые заверения представителей поисковых систем (про YMYL, авторитетность, контент-король) собственно качество контента со всей его информативностью, соответствием фактам, текстовой оптимизацией и прочим уже не играет никакой роли. Хост и трафик (возраст, ссылки и поведенческие) – вот на что смотрят ПС в первую очередь. Собственно, закономерно: зачем тащить в топы сайты, куда никто не ходит? Зачем тратить ресурсы на оценку какого-то новичка? И тут мы переходим к самой неприятной части нововведений 2021 года.

Сканирование и индексация

Думается, все вебмастера и владельцы сайтов заметили, как замедлилась скорость индексации новых страниц, ссылок, как медленно уходят из выдачи 404-е URL. Я лично долгое время утешал себя мыслью, что речь лишь о нехватке ресурсов. Ну, не хватает мощности дата-центров обработать всё возрастающие потоки информации. Вопрос так или иначе решится. Квантовые компьютеры на подходе!

Нет. Всё оказалось печальнее: теперь, если вы хотите что-то получить от ПС, вам нужно убедить их, что ваш контент вообще чего-то стоит. Стоит того, чтобы его найти, просканировать и внести в индекс – речь о топах даже не идёт.

Что для этого нужно? – Те самые положительные сигналы, которые ПС не могут игнорировать. А это всё те же ссылки, всё тот же трафик. Ссылки сами себя не поставят, и просто так никого из интернета на вашу страничку не занесёт. А это значит, что либо вы очень популярный бренд, у вас хорошо раскачанные аккаунты в соцсетях с ордой подписчиков, либо вы активно увеличиваете количество ссылок и нагоняете трафик на сайт откуда только возможно. Старый хост (читай – дроп, PBN), тонны ссылок, популярность у пользователей (или как там формулирует свой ИКС Яндекс) – и пошло-поехало, как Буратино, которому папа Карло вместо ноги прикрутил колесо.

Большое спасибо ПС, выкатившим API для отправки в индекс больших пачек URL. Это пока ничего не изменило, но приятно, что о вебмастерах и оптимизаторах кто-то помнит. А там – поглядим.

Ссылочное

Хорошая новость: ссылочное продолжает работать, если вы понимаете, что и зачем делаете. Нельзя просто так пойти на «Сапу» и не приходя в сознание прикупить ссылок, или заказать ссылочное у очередного «крауд-маркетолога», – так, чтобы это сработало в плюс. Хотя, конечно, бывает и такое, если вы весь год вели себя хорошо. Чтобы ссылочное сработало, вам нужно очень придирчиво просчитывать ключи для анкоров, готовить хороший контент, но что важнее – очень придирчиво отбирать доноров.

Просто потому, что очередной пресс-релиз или рерайт рерайта, размещенный на падающем сайтике, которого вообще не должно бы быть, толку никакого не даст. Можно месяцами ждать, когда ссылка проиндексируется, и не помогут ни вспомогательные ссылки на этого донора, ни репосты в соцсети, ни прокликивание. Всё просто: старый больной гуглобот посмотрит на вашу страничку с ссылкой и скажет противным голосом: «Не хочу». И ничего с этим не поделать.

Он такой фигни уже навидался, ровно в тех же словах и с такими же картинками, так что извините.

Соцсети и безкликовая выдача

Значительная часть потенциальных пользователей интернета прочно поселилась в «Инстаграм» – гиблом месте, откуда нет выхода. Они там ищут, находят и покупают, и поиск им нужен разве что для запросов в духе «Это чё?» – а на этот случай поисковые системы придумали быстрые ответы. Они вообще многое придумали, чтобы ползатель не уползал за пределы выдачи. Судя по мечтаниям вслух представителей Яндекса, они и продажи готовы реализовать прямо с выдачи. Вот товарная карточка, вот кнопка «купить» прямо в серпе, какой вам ещё трафик на сайт?

Судя по данным «Яндекс-Радар», весь минувший год доля Яндекса по трафику в рунете составляла 60%, а Google – 38. В объективности этих данных можно усомниться, с учётом того, что число пользователей Яндекса прирастает за счёт поведенческих ботов всё больше и больше, по мере того, что другие способы продвижения уже работают постольку-поскольку. А график-то – не растёт. Что ж, это логично: поисковая выдача, заспамленная Директом, «колдунщиками», бесконечными сервисами Яндекса – не то, что ожидаешь увидеть, обращаясь с запросом. А на «Авито» с «Леруа» можно и напрямую идти.

По опросам Hubspot: 51,5% пользователей вполне довольны тем, что бескликовая выдача сразу им представляет. Да, речь больше об информационных запросах, да и заинтересованной такую аудиторию назвать нельзя. И тем не менее – это посетители, которых «съела» выдача. И их число со временем будет только расти.

Бюджеты на продвижение

Бюджеты. Увы и ах. Стоимость продвижения, у которого есть хотя бы гипотетическая эффективность, растёт в цене. Если вы пользовались услугами сына маминой подруги, который покупал ссылки с «Миры» и закупал по десятку текстов на «Адвеге» на тысячу рублей, и всё было в порядке – дальше так не получится. Процессы усложнились, а продвижение требует куда больше ресурсов, чем может позволить себе небольшой магазин или сайт услуг. И дело тут не в жадности «сеошников». Поисковые системы предъявляют всё новые требования к бизнесам, вытесняя с поискового рынка небольших игроков.

Всё это напоминает «ночь длинных ковшей» в Москве, когда разом были снесены все ларьки и торговые павильоны, чтобы люди шли в ТЦ и супермаркеты. Нет, до сих пор в топе среди «монстров» можно увидеть и залётный дорвей, и веб-представительство «Шаурмы от Ашота». Да и, собственно, активные клиенты маркетов вообще уже не обращаются к поиску: они просто открывают на смартфоне приложение своего любимого магазина, где у них есть и программа лояльности, и скидки, и ищут товар сразу там. У вас есть приложение? Понятно. А сотку тысяч на ссылки можете выделять? Хорошо.

А теперь смотрим среднюю температуру по больнице.

  • Час SEO-специалиста уровня middle: от 1 тысячи рублей. В агентствах, как правило, чуть дороже, им аккаунтов кормить надо.

  • Стоимость размещения одной ссылки: от 300 рублей на ссылочной бирже.

  • Подготовка 1 текста пристойного уровня: от 1 тысячи рублей (на биржах можно купить и дешевле, но поверьте, это будет совсем плохой текст).

  • Добавляем сюда стоимость сервисов (тот же keys.so подорожал, например, в 3 раза), аренды серверов, софта, прокси и всякой мелочевки типа съёма позиций разово в том же «Топвизоре» – и-и-и…

Кусается. И выкинуть из списка ничего нельзя.

А малый и средний бизнес не стал богаче, «белые» методы SEO – эффективнее, а те способы, которые могут гарантировать какой-то результат, не подешевели. Единственное, что хоть как-то уравновешивает спрос, предложение и бюджеты – это орды джунов, готовых взяться за любую задачу на любом бюджете, готовых с помощью своей «плитки тегов» потеснить из выдачи «Вайлдберриз» и «Яндекс-Маркет». Да здравствует инфобизнес! Благодаря ему люди не теряют надежды.

В заключение

Значит ли вся эта писанина выше, что я разочарован в SEO? Выглядит-то это как-то, мягко выражаясь, непозитивно.

Отнюдь нет. Правила игры усложняются – не более того. Поисковики усложняют требования – а мы крепчаем. Лично я для себя поставил с десяток глобальных задач, связанных с ликвидацией некоторых пробелов, отработкой нового инструментария, проверки пачки гипотез. Меняется высота планочки, но в первый раз что ли? Чем сложнее правила – тем интереснее играть.

0
83 комментария
Написать комментарий...
Oleg Oleg

Общий вывод простой поиск стал работать значительно хуже чем раньше и выдача в поиске для потребителя стала менее удобной. Хотя сам потребитель думает что что наоборот.

Ответить
Развернуть ветку
Виктор Петров
Автор

Там всё хорошо, только найти ничего не получается. У меня любимое развлечение появилось: просто на ключах и описаниях попытаться обнаружить в выдаче что-то.
Буксует искусственный интеллект, лажает.

Ответить
Развернуть ветку
5 комментариев
Павел Храмцов

Порог вхождения растет, слабаки уходят, остаются профессионалы. Этому нужно радоваться, на мой взгляд, как СЕО-специлистам, так и бизнесу.

Ответить
Развернуть ветку
Семен Переделкин

Ларёчники тоже радовались, когда ларьки конкурентов с соседней улицы сносили. Хехе.

Ответить
Развернуть ветку
5 комментариев
Тарас Шабанов

Можете пожалуйста подробнее объяснить, что нужно проверить на сайте, который как написали: "любители колдовать над скоростью загрузки." как реально видят эту страницу поисковые роботы?

Ответить
Развернуть ветку
Виктор Петров
Автор

Вам понадобится парсер - я, к примеру, использую Screaming Frog Seo Spider. Там есть возможность выбрать User-Agent (скажем, эмуляцию гуглобота-смартфон) и режим парсинга. Они те так давно добавили наконец рендеринг JS. Таким образом, у вас есть возможность посмотреть, какие данные доступны для реального поискового бота при первичной и вторичной индексации.
Бывает так, что визуально на сайте всё хорошо, а по факту большая часть сайта (скажем, товарные карточки) - это полные или нечеткие дубли с точки зрения поисковых роботов. Частенько встречается.
Есть также плагин для Chrome - View Rendered Source. Делает примерно то же самое, но для конкретной страницы, в браузере. Можно выбрать UA и посмотреть разницу в "сырых" данных и отрендеренных. Выглядит вот так:

Ответить
Развернуть ветку
Юрий

Читаю это и снова погружаюсь в боль seo-шника. Но особенно обидно за малый бизнес, который хочет за 10-15к рублей в месяц продвинуться в топ по ВЧ. А когда людям объясняешь, что за эти деньги лучше не лезть туда, что меньше чем за 30к вы "сольете" бюджет, они уходят к тем, кто им обещает золотые горы и продвигать их интернет-магазин в конкурентной тематике за 20-25к и, соответственно, сливают бюджет, а потом говорят о том, что seo - это развод😤😠

Ответить
Развернуть ветку
Чайка О.

Регион в ЦФО. Установка пластиковых и прочих окон, человек на рынке 10+ лет. Имеет несколько сайтов, один с хорошей историей, другие - новенькие микро-ГС.Всё в диком состоянии, сделано сыном маминой подруги. Нашла его на агрегаторе, когда меняла окна.
Местные конторы предлагают продвижение за 15К/мес, но и это для него - "неподъёмные деньги".

Ответить
Развернуть ветку
2 комментария
Антон Ляшенко

SEO всегда будит жить! Пока есть Поиск с 22 000 000 ответов на запрос. Все кто делал поиск говорили что сделают идеальные но в результате получилось то что имеем сейчас.

Ответить
Развернуть ветку
Alecs Proz

Не совсем согласен. Например индексация, она перешла в зависимость от некоторых факторов как например Турбо страницы сайта. С ними пролетает все моментально в индекс. Есть и другие хаки, но что-то подумал, не стоит всё писать.

Ответить
Развернуть ветку
Виктор Петров
Автор

Турбо - это про Яндекс. И чаще всего турбо-страницы мне не нужны, это зло - их делать разве что ради "карусельки" в сниппете из инфо-раздела в магазине.
А вот в Гугл всё намного забавнее: "найдено, но не просканировано", "просканировано, но не проиндексировано" и т.п. И это длится месяцами.

Ответить
Развернуть ветку
3 комментария
Юрин Иван

Хм. Да, соглашусь с наблюдениями. Если что-то купить - захожу на сайты али, вайлд, озон, маркет.
Если запрос из разряда "что это" - ищу в ютубе, так как спам информационников просто дикий.
Поиск уже на последнем месте, чисто для поддержки других методов)

Ответить
Развернуть ветку
Жаналинов Ильяс

Не совершайте ошибку маркетолога, не все думают и действуют как вы. Многим удобно через модальное окно заявки оставлять, кому-то удобнее через чат, кому через телефон. Все по разному взаимодействуют

Ответить
Развернуть ветку
Чайка О.

"И вечный бой! Покой нам только снится"
*
Картинка хороша )
*
Спасибо за нетривиальный текст.

Ответить
Развернуть ветку
Юрий

Виктор, очередной толковый и обстоятельный текст. Особенно про семантику зашло. 💪

Ответить
Развернуть ветку
Виктор Петров
Автор

Про семантику для меня - больная тема. Надо на корню менять подходы - а способов реализации пока не вижу, лишь отдельные инструменты.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Виктор Петров
Автор

У Маркина хорошие уроки для новичков. Но сектанты его дико напрягать начали.

Ответить
Развернуть ветку
Aleks Cloud

Я бы не сказал что это "камень"... Скорее суровая реальность. При анализе конкурентов, в любой мало-мальски частотной тематике, можно увидеть у 6-8 из 10 конкурентов в топе плитку тегов. И это явно не заслуга Маркина.

Ответить
Развернуть ветку
Александр Поспелов

Про доли Яндекс/Google в ру сегменте. В автотематике деление такое: 22% Яндекс, 76% Google, 2% прочие (стата по 45 сайтам).

По ценникам за услуги: час работы, ссылки, я бы назвал цены в два раза выше.
___

Самый интересный факт в статье для меня: "Hubspot: 51,5% пользователей вполне довольны тем, что бескликовая выдача сразу им представляет". Любопытны подробности

Ответить
Развернуть ветку
Иван Жданович

"похоже, что Яндекс открутил учёт запросного кворума. Иными словами, «хвосты» запроса он больше не учитывает, попросту отбрасывая их, и показывает результаты по самым частотным общим запросам, "

Ничего подобного. Лично у меня есть кейсы когда более ВК/ВЧ запросы лезут близко к 100% именно за счет НЧ.
Вот какие и как НЧ выбирать - тут возможно что-то поменялось тактически. Но глобально и тут все как и раньше - на до правильно выбирать "поддерживающие" НЧ и будет рост. А именно "охват" и возможно "Точность/достоверность/концентрация"

Ответить
Развернуть ветку
Виктор Петров
Автор

Вот тут и у меня больше вопросов, чем ответов. Старые проверенные техники, которые я использовал годами, дают сбой.

Ответить
Развернуть ветку
1 комментарий
Евгений Калинский

Крутой текст. Спасибо за детальный обзор.
Особенная боль - это индексация поставленных ссылок. И никакого другого способа, кроме жёсткой фильтрации доноров

Ответить
Развернуть ветку
Виктор Петров
Автор

Да, со ссылками отдельная песня. По нескольким экспериментам - хорошо заходят в основном только ссылки с сильных хостов, с хорошей посещалкой и авторитетом у ПС. Более мелкие хосты (каковых большинство на тех же ссылочных биржах) идут в индекс с большим скрипом, даже если полить их дополнительным ссылочным.
Надеюсь, это временное явление технического характера, а не новая политика распределения ресурсов ПС,

Ответить
Развернуть ветку
Александр Сергеевич

Прочитал эту статью и всё настроение по работе с сайтами упало "ниже плинтуса"! У меня такого еще никогда не было! Это нельзя, то плохо, это не работает и прочее ... Куда же тогда и в какую сторону двигаться вебмастерам, чтобы получить успех?

Ответить
Развернуть ветку
Виктор Петров
Автор

Речь не про "плохо" и "не работает". Просто условия поменялись, и серьёзно. Некоторые нужно принять, для некоторых нужно адаптироваться. Пересмотреть арсенал, в конце концов.
Я вот за Python наконец решил взяться всерьёз - хотя минимум пару лет знаю, что давно пора. Теперь совсем пора, без этого работать сложно.

Ответить
Развернуть ветку
2 комментария
Евгений Демюк

Был у меня один знакомый SEO специалист со своим агенством , и вот году в 2013 он начал осознавать что тема приносит все меньше денег , а сил потребляет все больше . Разумеется он как человек близко знакомый с сайтами ничего проще не придумал как сделать сайт который бы приносил деньги скажем за регистрацию . Знакомства , но знакомства не простые… ну и вот покумеков пару ночей и набросав на конструкторе платформу , он пришёл к простому и однозначному выводу что продвигать его будет только контекстом , благо тогда Лиды в его тематике стоили считанные копейки . И вот уже лет 10 прошло , рубит он себе по 500 кило рублей в месяц и так же крутит контекст .ахахаха

Ответить
Развернуть ветку
Жаналинов Ильяс

Контекст для многих ниш уже не актуален.

Ответить
Развернуть ветку
Макс Козлов

Хороший текст, хорошо написан. С большинством выводов согласен. Мне кажется Яндекс сам не до конца понимает куда идет, судя по тому, как часто всё меняется

Ответить
Развернуть ветку
Жаналинов Ильяс

Так они несколько лет назад сами заявляли, что уже не понимают как работает алгоритм……я тут «я робот» недавно пересматривал.

Ответить
Развернуть ветку
Alexey Fedorov

Мы всю жизнь работали в белую. Google нас любит, Яндекс — три года назад начал постепенно занижать. Поскольку любовь Яндекса приходит через Дзен, Турбо и крауд-маркетинг школотой, мы как-то незаметно перестали учитывать его.

Ответить
Развернуть ветку
Александр Трубенков

Спасибо, приличная статья!

Ответить
Развернуть ветку
Иван Иванов

Спасибо, интересно. Сейчас ещё нужно написать отдельную статью про то, что из оставшегося работает :)
Уже давно меня интересует вопрос доли Яндекса по трафику в рунете, я по своим проектам давно наблюдаю падение, раза в два минимум Яндекс по сравнению с Google. В некоторых тематиках, разрыв уже настолько сильный, что складывается впечатление что трафика в Яндексе уже почти нет.

Ответить
Развернуть ветку
Виктор Петров
Автор

По моим прикидкам - Яндекс это примерно 20% людей, остальное - бототраф. Вот из из этого и исхожу.

Ответить
Развернуть ветку
Павел Seoremica

Статья понравилась. Месяц не заходил, рад, что вы пишете для раздела.

Ответить
Развернуть ветку
Павел Seoremica

Выводы пришлись по душе, и с наступающим вас, Виктор! И всех, кто будет крепчать вместе с SEO 2022 )

Про SEO-аудиты — 100% так. У меня под конец года их накопилось четыре, на каждый потратил от трех до пяти недель с учетом сравнения с конкурентами и стратегии. Сам не ожидал таких объемов временных. В новом году себе пожелал оптимизировать сроки и процесс оформления после получения данных машинной обработки )

Ответить
Развернуть ветку
Иван Жданович

"Информационные сайты. " "Тревожные звоночки зазвонили ещё в 2020, а в 2021 их звон перерос в гул погребального колокола"

А потому что появился Дзен и он растет. Надо как-то делать колоборацию статейника с Дзеном и возможно это выход. Говорят (сам не проверял) Дзен тоже монетизируется

Ответить
Развернуть ветку
Виктор Петров
Автор

Монетизировался он хорошо пару лет назад. С тех пор блохиры оттуда начали откочёвывать на стендэлоны и на старые площадки. С матом по поводу алго Дзена.

Ответить
Развернуть ветку
2 комментария
Дмитрий Александрович

Еще можно упомянуть осеннюю чистку Яндекс.Справочника от компаний без реальных адресов в регионах. Старые способы обхода проверок уже не срабатывают. Хотя мне тут до конца не ясно стоит ли игра свеч и теряем ли реально что-то в плане геопривязки и бонусов к региональному ранжированию при переходе на карточки онлайн-организаций.

Ответить
Развернуть ветку
Виктор Петров
Автор

У них реальные филиалы с подтвержденными акками в бывшем "Справочнике" - реальный фактор ранжирования. Едва ли кто-то с "Карт" ходит, а вот на запросы в поиске влияет однозначно.

Ответить
Развернуть ветку
3 комментария
Антон Румянцев

Согласен со всем хоть и не специалист прям, а самоучка по своему сайту. Месяц назад было такой ппц , сайт пропал из поиска даже по прямой ссылке) жесть.

Ответить
Развернуть ветку
Виктор Петров
Автор

Так и сейчас шторм. Апы в Яндексе по три на день, и позиции - от топ-3 до вылета за сотню. Хоть каждые 5 минут позиции снимай - будет что-то новенькое.

Ответить
Развернуть ветку
Boris Maler

Так глядишь, скоро исчезнут сеошники и львиная часть интернет-маркетинга. Все будут сидеть на сервисах поисковиков, агрегаторах и маркетплейсах, получать всю инфу в выдаче, получать товары в пунктах ВБ и озона или сразу дома. А там и недалекое светлое будущее "Суррогатов" ))

Ответить
Развернуть ветку
Тарас Шабанов

Год бота и накруток. Я впервые в этом году, видел статистику в директе, что было зафиксировано 804 клика по рекламе и 910 скликов 😅 раньше эти цифры были около 30%, сейчас они могут быть любыми.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Виктор Петров
Автор

Там с неделю уже какой-то дикий рандомайз в выдаче, и похоже, что речь опять о ботах. То ли выборочно ПФ отключают для сайтов, то ли откидывают, чтобы посмотреть, сохранится ли траф на сайт, отброшенный из топ-10 в топ-50.
Непонятненько.

Ответить
Развернуть ветку
Иван Жданович

"С этого момента потенциальными роботами стали:
Люди, заходящие из закладок или соцсетей;
Посетители в режиме «Инкогнито» или с адблоком;
Люди, зашедшие не из топ-10;
Пользователи, зашедшие на сайт с «неправильными» запросами"

А так же посетители с иностранными GEO/ip - вот поставил ты метрику на сайта на английском языке и тут внезапно у тебя оказывается больше 50% ботов! Бугага!

Ответить
Развернуть ветку
Иван Жданович

" Выбор неправильных ключевых слов притащит вам на сайт нецелевой трафик, или вы попросту не сможете конкурировать с более серьёзными сайтами."

Вот это точно

Ответить
Развернуть ветку
Иван Жданович

"Но как минимум, Google всё ещё понимает, что такое прямые вхождения, и вы всё ещё можете повлиять на выдачу хотя бы по низкочастотникам. "

Тут "скользко". С одной стороны BERT достаточно хорошо понимает про что страница, а с другой стороны у google один запрос сильно хуже тянет другой запрос чем в Яндекс

Ответить
Развернуть ветку
Чайка О.

В Яндексе один ключ может вообще всё перебить.

Ответить
Развернуть ветку
Антон

Настрощал тут, выводы спорные... просдо делай КК, как говорится, и все ок

Ответить
Развернуть ветку
Антон

Если лить на дзен, то все индексируется и показывается нормлаьно

Ответить
Развернуть ветку
Michael

Что лить и зачем?

Ответить
Развернуть ветку
2 комментария
Артем Багненко

Но запросный индекс то никуда из Яндекса не ушел, все еще можно ранжиться в других тематиках с запросным по униграмме из другой тематики в рамках хоста довольно неплохо

Ответить
Развернуть ветку
Alice K.

Извините, я не в теме интернет-продвижения, но сама недавно посещала сайт, сделанный полностью на JS. Возможно, техническая часть страницы там и сделана не в JS, но "основной контент" - точно да. И в таком случае почему он в топе? Нашла его легко через Гугл по тематическому запросу.

Ответить
Развернуть ветку
Виктор Петров
Автор

Есть большая разница, как организован рендеринг и кэширование на сайте, созданном на JS. Любая нынешняя соцсеть - это такой вот JS-фреймворк, тем не менее - в топах мы видим отдельные странички.
Вы заходите на такой сайт - и получаете либо статический HTML, либо основной контент скачивается в локальное хранилище и подгружается оттуда. В ряде случаев поисковые системы получают статику (как в старой схеме обработки AJAX), а люди получают контент по результатам взаимодействия с приложением.
В общем, многое определяется конкретной реализацией, надо лишь о ней подумать.
А владельцу сайта озаботиться тем, что доступно роботам при первичном сканировании, а на что нужны дополнительные ресурсы. Чем больше доступно сразу - тем меньше проблем со сканированием и дальнейшим продвижением.

Ответить
Развернуть ветку
Александр Толстенко
привет сайтам на Tilda, WIX и прочим чудесам научной мысли

а еще прогерам с прямыми руками)

Ответить
Развернуть ветку
Aleksei Nemenock

Чем больше читаю и пытаюсь внедрять на своём сайте, тем ниже позиции, возвращаясь к теме- сайт на битрикс, не парился, сделал на конструкторе, сайты 24, тексты честные, часть переработанных после И. И. ключей 2,3 на страницу, гугл долго не пускал, сейчас интересующие фразы в топе и в Яндексе и в гугле. Сайту 3 года, ссылок входящих нет, никогда не занимался, технической оптимизации нет, анализ конкурентов проводил пару раз, но с выводами не согласился и забил на это. турбо нет, так же нет ни каких накруток, картинки не подписаны, оптимизированы случайным образом, какие уменьшал, какие целиком залил, но всё свои, особо удачные по несколько раз на разных страницах, директ по нч, уходит 1-2 тысячи в месяц. Посетителей 10-15 в день, ниша дорогая с высокой конкуренцией, но по интересующей меня тематике киты отрасли в выдаче сидят ниже, со своими it отделами, каждый второй звонок, перерастает в клиента, каждый клиент в трёх. Привередничаем в выборе работы. В общем сайт показывать стыдно, но свою функцию выполняет вопреки. И ещё, я один, seo не обучен, нахватан советов, но привык жить собственной головой. Короче говоря упрямец. Подводя итог, скажу, что надо смотреть на мир проще, и поисковики к тебе потянутся. Связка с рекламой весьма продуктивна, мета-теги, информативный текст без переспама, высоко релевантные ключи, htps, и любимый Яндексом Битрикс. Извиняйте за стиль, я вообще случайно забрёл, подсел на автора- понятно пишет, даже я со своим механическим образованием из второй трети прошлого века всё понимаю.

Ответить
Развернуть ветку
80 комментариев
Раскрывать всегда