13 SEO-идей, собранных за август

Всем привет! Меня зовут Алексей Севостьянов, я генеральный директор в «Скобеев и Партнеры». Подготовил дайджест за август по новостям в мире SEO.

Узнайте за 11 минут все основные практические SEO-фишки, агрегированные из десятков Telegram-каналов и видеороликов, вышедших в августе 2024 года.

13 SEO-идей, собранных за август

Google

1. В Google прошел Google August 2024 Core Update, который, судя по всему, откатил часть правок прошлого апдейта

Практическая ценность:

  • Выросли страницы с вхождением словоформ ключа в h1, но вместе с тем просели сайты, где это вхождение сделано с перестановкой слов. Поэтому вставлять надо естественную версию, не ориентироваться на то, как выгружает вордстат.
  • Выросли услужные сайты с отдельной страницей с прайсом
  • Просели страницы листингов магазинов, на которых есть тексты более 1000 символов. Напомню, в прошлый апдейт произошло все ровно наоборот. Не успели протестировать как следует это, надо будет теперь сносить большие портянки текстов.
  • Поднялись молодые сайты (до 3х лет). В прошлый раз по ним ударило.

Источник: https://t.me/bez_seo/1061

2. Внутренние ссылки влияют не меньше, чем внешние.

Практическая ценность: Гугл учитывает внутренние ссылки не хуже внешних и применяет к ним такие же требования:

  • околоссылочный текст должен быть “в тему”;
  • анкор ссылки и целевая посадочная страница должны "метчится" между собой;
  • ссылка, которая вставляется в текст, должна органично вписываться в канву повествования страницы-донора.

Источник: https://t.me/burzhunet/2480

3. Злоупотребление обновлением даты публикации документа без значительного обновления самого контента может привести к проседанию сайта.

Практическая ценность: Гугл хранит несколько версией документа и поэтому может адекватно оценить, насколько у нас в реальности обновился контент. И если мы просто меняем дату публикации на актуальную и не меняем особо контент, то могут быть последствия. В исследовании отмечено, что сайты, которые чаще меняли дату, пострадали больше, чем сайты, которые по 2 года не обновляли дату/контент.

Источник: https://t.me/burzhunet/2454

4. В Гугле нет никаких мер подсчета символов.

Практическая ценность: Если вдруг хочется сделать красивый тайтл, но есть опасения, что он будет слишком длинным, за это не стоит переживать. Судя по анализам последних сливов в Гугле нет метрики, которая подсчитывала бы длину заголовков. Единственная мера подсчета символов, которая встретилась в документации - это snippetPrefixCharCount, которая определяет, что может быть использовано как часть фрагмента сниппета.

Яндекс

5. Как магазину получить больше продаж с Поиска.

Практическая ценность:

  • Нужно следить за актуальностью каталога. Если тематике/категории свойственно обновлять каталог (например, новые серии/линейки товаров), то их обязательно надо добавлять на сайт. Перед глазами есть реальный пример магазина с 1 млн трафика, где не обновлялся каталог. Он потерял на дистанции 2/3 трафика.

  • Нужно следить за ценами и давать скидки/делать распродажи. Судя по всему история с ценой идет в сторону решения “у кого дешевле, того и тапки”.

  • Максимально заполняйте карточку товара полезной информацией. Без фото можно не лезть даже.

  • Максимально сокращайте поля и формы для оформления заказа. Тренд идет на упрощение (люди еще более ленивые стали), поэтому надо упрощать процесс оформления.

  • Добавляйте любые “ништяки” для клиентов - сплиты, оплаты после примерки, расширенные гарантии, различные варианты доставки и т.д. По сути это все свойственно крупным агрегаторам и их опыт придется перенимать.

6. Для каких сайтов накрутка ПФ не будет иметь особого успеха.

Практическая ценность:

  • Новые/нулевые сайты, с околонулевым трафиком.
  • Псевдо интернет-магазины. Например те, где вместо корзины типа форма заявки. Асессоры понизят его.
  • Медицинские сайты, которые сделаны на скорую руку и которые не соответствуют требованиям EEAT.
  • Сайты, на которых забили на внутреннюю оптимизацию. Это не новость, поэтому сеошники не умерли с приходом ПФ, они все так же актуальны.
  • Сайты, где ботный трафик превышает нормальный.

Источник: https://t.me/shakinru/2776

Chat GPT

7. Как создать PBN сайт за 15 минут.

Практическая ценность: Простая инструкция по генерации PBN сайтов с помощью Chat GPT. Промт для работы в наличии. Его можно найти тут.

8. Как поднять 87 тыс инфо трафика за пару дней на AI контенте.

Практическая ценность: Быстрый способ собрать инфо контент для сайта с достаточно высоким уровнем качества:

  • Берем платный аккаунт Perplexity.
  • Находим темы, которые дадут трафик. В идеале, если конкуренция по ним не очень большая (по ахрефс посмотреть).
  • Даем системе в разделе Pages сгенерировать контент.
  • Правим каждый блок исходя из пожеланий.
  • Проверяем качество собранного контента.
  • Индексируем.

Источник: https://t.me/burzhunet/2495

Инструменты оптимизатора

9. Если скормить поисковику новую недоделанную страницу в надежде дооптимизировать ее потом, то можно ее не вывести вовсе.

Практическая ценность: Есть расхожее мнение, что лучше хоть какая-то страница в индексе, чем ее отсутствие. Ибо возраст, все дела. Но нельзя отдавать в индекс неоптимизированную страницу: это сильно осложнит её продвижение и увеличит затраты ресурсов на «раскачку». Это связано с работой фаст-ранка при первичном индексировании документа. Если при знакомстве со страницей у поисковика первичное представление о ней будет не очень, то потом он менее охотно и гораздо дольше будет обновлять метрики страницы.

10. Как настроить лягушку для парсинга большого объема страниц.

Практическая ценность:

  • Выбираем режим сохранения как Database storage, чтобы писать все на диск.
  • В настройке Memory Allocation выставить 50% от имеющегося объема ОЗУ.
  • В настройке Crawl снимаем галочки у тех типов информации, которые нам не надо собирать. Например, если задача собрать структуру, то выключить можно почти все, кроме внутренних ссылок.
  • В настройке Extraction снимаем галочки по тем данным, которые нам не нужны по страницам.
  • В настройке Limits нужно выставить у параметров Limit Crawl Depth, Limit Max Folder Depth и Limit Number of Query Strings значение, соответствующее тому максимальному уровню вложенности, который надо изучить краулеру.
  • В настройке Speed выставляем значения Max Threads и Max URL’s одинаковые.
  • В настройке User-agent меняем на гуглобот.

Источник: https://t.me/burzhunet/2468

11. Как получать ссылки с Википедии для повышения траста сайта.

Практическая ценность: Итак, траст влияет. Это мы поняли из сливов. Подробная инструкция, как получить ссылки Википедии, со скриншотами для наглядности и примерами запросов.Например, один из способов - это поиск битых ссылок на Википедии

Источник: https://t.me/burzhunet/2490

12. Как приоритезировать работу со скоростью загрузки страниц исходя из углеродного следа страницы.

Практическая ценность: Звучит как фантастика, но это рабочее решение. В Screaming Frog добавили возможность отслеживать "углеродный след" сайта и отдельных его страниц на основе ресурсов, которые нужны для рендеринга страницы. И чем тяжелее страница, тем больше нужно ресурсов для ее отображения. Это может быть сигналом для работы с такими страницами, поскольку стоит ожидать только ужесточения требований к скорости загрузки.

Источник: https://t.me/seomagus/64

13. Как найти PBN конкурентов.

Практическая ценность: Linxact показывает ссылки с домашних страниц и редиректы. Загружаем URL домена и сервис дает свою оценку того, какие ссылки были поставлены с PBN. Из минусов - может неверно интерпретировать обычные статейные ссылки с бирж.

Источник: https://t.me/shakinru/2755

Прошлые подборки

Поддержите комментарием или лайком эту публикацию. Для меня это подтверждение, что данный контент полезен для сообщества.

Кроме того, если вы видите, что нечто интересное произошло, и этого нет в подборке, напишите в комментарии, давайте увеличим ценность материала вместе.

Не забывайте подписываться на наш телеграм-канал по ссылке.

Успехов в вашем труде!

2727
11
17 комментариев

Эта инструкция для лягушки не поможет в случае, если стоит защита от парсинга или ддоса.

4

Снижается скорость до 1 урл в сек и 1 потока. Если не помогло - то рендеринг страницы. Но в любом случае это будет ооооочень долго.

2

В большинстве случаев - работает. Парсятся и те, что стоят под CF с Антиботом. Вот если проект реально суровый, с кастомной защитой - там да, парсер всё равно так или иначе пропалится и попадёт в блок - по числу ли запросов, по кукам, или не пройдёт чек на подлинность, если парсить от эмулятора поискового робота.
Но это достаточно редко случается.

1

Тут вы правы, это сложно. Такие сайты трудно пробить. Можно пробовать разные варианты, например парсить через ВПН или парсить через апарсер. Но надо заморочиться со сменой проксей + их должно быть много в пуле.

Найти трафиковую тему с низкой конкуренцией в 2024 году? Это из области фантастики.

3

Не согласен. В ахрефс можно оценить конкуренцию по запросу. Но я бы больше рекомендовал Mangools KWFinder

1