Тенденции технического SEO-продвижения 2020 года

Кевин Индиг, известный западный SEO-специалист, в своем блоге поделился мнениями 15 экспертов в области зарубежного SEO о тенденциях технической SEO-продвижения на 2020 год. Мы в SiteAnalyzer перевели и адаптировали данный материал для vc.ru.

В статье приведен обзор современных тенденций технической SEO-оптимизации сайтов по мнению западных SEO-специалистов.

Большинство вещей меняется не так быстро, как изменения в сфере оптимизации сайтов. Сегодня техническая составляющая SEO достигла своей критической отметки, что делает данную сферу еще более интересной и увлекательной.

Очевидно, что ее масштабы сильно поменялись относительно прошлого года. Основываясь на трендах, представленных на различных конференциях, статьях и личных ощущениях, техническая оптимизация сайтов стала настолько сложна и многообразна, что в ее рамках начинают возникать новые специализации.

Это легко заметить по резкому увлечению интереса к конференции Tech SEO Boost в период с 2018 по 2019 год.

Информационные материалы о «техническом SEO», опубликованные на AHREFs

Сегодня специалисты, занимающиеся мобильной оптимизацией, performance-маркетингом, контент-маркетингом, рендерингом или машинным обучением при помощи Python могут полноценно зарабатывать себе на жизнь, сфокусировав внимание лишь на технических аспектах SEO.

В последнее время, мы также можем наблюдать, что количество публикуемого контента на тему «техническая SEO-оптимизация» не прекращает расти.

Техническое SEO в Google Trends​

Данные показатели действительно ошеломляют. Поэтому, я решил обратиться к некоторым друзьям и экспертам в этой отрасли, чтобы узнать их мнение о перспективах развития технической SEO-оптимизации в 2020 году.

Сегодня я поделюсь с вами обзором современных тенденций сферы SEO, основанном на мнении 15 западных экспертов:

  • Эй. Дж. Кон (AJ Kohn)
  • Эндрю Шотланд (Andrew Shotland)
  • Бартош Горалевич (Bartosz Goralewicz)
  • Барри Адамс (Barry Adams)
  • Сайрус Шепард (Cyrus Shepard)
  • Дэвид Соттимано (David Sottimano)
  • Эрик Ву (Eric Wu)
  • Гамлет Батиста (Hamlet Batista)
  • Лили Рэй (Lily Ray)
  • Мика Фишер-Киршнер (Micah Fisher-Kirshner)
  • Рут Берр Риди (Ruth Burr Reedy)
  • Патрик Стокс (Patrick Stox)
  • Дж. Р. Оукс (JR Oakes)

Как говорит мой друг Бартош (Bartosz) из Onely, «2019 год стал переломным моментом для технической оптимизации сайтов. Никогда еще не было столь динамичного года для Google. Произошло слишком много изменений, которые полностью поменяли правила игры. И вот, что мы ожидаем от развития данной сферы в 2020 году».

Рекомендую запастись кофе и печеньками, и приготовиться к заряду вдохновения!

Javascript и Python: противоречивые новички

За последние 2 года все больше SEO-специалистов стало использовать язык программирования Python для таких задач, как анализ данных и применение простых программ машинного обучения.

Гамлет Батиста (Hamlet Batista) из Rank Sense, один из основоположников течения Python, считает, что: «Внедрение технической SEO-оптимизации будет продолжаться. SEO-специалисты будут приобретать навыки разработки как на языке JavaScript, так и на Python. Я надеюсь, что команды разработчиков станут больше интересоваться изучением SEO и расширением сотрудничества в этой сфере».

Патрик Стокс (Patrick Stox) с ним согласен: «Все больше специалистов в сфере SEO начинают изучать Python и машинное обучение, но я надеюсь, что некоторые из них все-таки будут использовать альтернативные варианты, например такой инструмент как Elasticsearch. В свою очередь, большинство технических изменений на странице сайта должно выполняться front-end разработчиками при помощи безсерверной технологии вычислений. Некоторые называют эту модель вычислений периферийной SEO-оптимизацией (Edge SEO). Её преимущество заключается в том, что изменения вносятся до того, как страницы будут открыты для ботов и пользователей. Поэтому выявление проблем и разработка правил для устранения ошибок вносится в самом начале. Некоторые инструменты, такие как A/B-тестирование, уже начали использовать данную технологию. Также будет больше JavaScript, PWA (технология, которая преобразовывает обычный web-сайт в полноценное приложение для смартфона), автономных систем CMS и использования модели безсерверных вычислений!».

На мой взгляд, SEO-специалистам полезно поиграться с Python и Javascript, чтобы получить опыт в программировании и говорить на одном языке с разработчиками. А если мы разрабатываем полезный инструмент для обеих сторон – то почему бы и нет?

Автоматизация SEO задач: будущее уже определено

Как специалисты в сфере SEO, мы мечтаем об автоматизации простых задач, чтобы сфокусироваться на более интересных вещах. Уже сейчас есть возможность создавать мета-теги description для описания страницы или автоматически перенаправлять пользователя на другой сайт, но все равно настоящая автоматизация все еще подобна Йети: некоторые утверждают, что видели его, но доказательств слишком мало.

Мика Фишер-Киршнер (Micah Fisher-Kirshner) с оптимизмом отмечает, что «в конце года автоматизация всех процессов станет обычной практикой в сфере технической SEO-оптимизации».

SEO сложно автоматизировать, так как многое нужно встроить в контекст. Но в свою очередь, та же реклама в поисковых системах уже демонстрирует множество вариантов использования, таких, как: выявление аномалий в работе, оптимизация кампаний и прогноз по CTR.

«Google активно использует информацию о статистике поисковых запросов и эффективности рекламы в сочетании с машинным обучением, чтобы предсказать, перейдет ли кто-то по вашему объявлению на сайт. Этот прогнозируемый коэффициент кликабельности помогает сделать выбор в пользу какого-либо канала продвижения, отследить позицию в поиске среди конкурентов и назначить цену объявлениям. Все это означает, что машинное обучение уже работает: показывает определенные рекламные объявления определенному целевому сегменту».


https://www.blog.google/products/ads/adwords-machine-learning-part-1

Эрик Ву (Eric Wu) не верит в свершение скорейшего чуда, но считает, что «...техническая SEO-оптимизация продолжит идти в том же направлении, что и раньше. Сайты, которые мало уделяли времени техническому SEO, будут по-прежнему нуждаться хотя бы в ее основах. Крупные предприятия, которые переходят на современные JS-фреймворки, должны быть более внимательными в отношении SSR (серверного рендеринга). Наконец, специалисты по технической оптимизации сайтов будут стремиться к большей автоматизации задач, будь то сторонние инструменты или разработка собственных при помощи Python и Jupyter Notebook. Не думаю, что самостоятельно отрегулированная автоматизация станет мейнстримом, но в любом случае, стоит проявить к ней интерес».

«Специалисты по технической оптимизации сайтов продолжат стремиться к большей автоматизации задач, будь то сторонние инструменты или разработка собственных при помощи Python и Jupyter Notebook» (Эрик Ву).

Web-performance: классика

Чем быстрее, тем лучше – с этим трудно поспорить. Это один из немногих принципов, которые справедливы почти во всех отношениях, будь то SEO, оптимизация конверсий сайта или маркетинг в целом.

Google был и остается одним из крупнейших инициаторов по увеличению скорости работы в интернете. В связи с этим все больше внимания уделяется использованию технологий AMP (Accelerated Mobile Pages – технология ускоренных мобильных страниц), CrUX (дистрибутив Linux) и повышению производительности работы сайтов для мобильных устройств и декстопов.

Гамлет (Hamlet) считает, что эта тенденция набирает обороты: «Google Chrome планирует присваивать значки "позора" сайтам, которые медленно грузятся в браузере и опускать эти сайты в списке выдачи. Поэтому можно ожидать, что будут предприняты значительные меры по повышению скорости загрузки сайтов, особенно на мобильных устройствах».

Бартош (Bartosz) с ним согласен: «В алгоритмах работы Google все больше ценится быстродействие сайтов. Если такие термины, как CrUX, LSP (Largest Contentful Paint – метрика для измерения воспринимаемой скорости загрузки страницы), базовые пользовательские метрики вам ни о чем не говорят, самое время в них разобраться».

Производительность – это очень широкое понятие, его даже можно выделить в целую науку. Она включает в себя множество актуальных инструментов, например Webpack (вебпак) и HTTP/3.

Эй. Дж. Кон (AJ Kohn): «Я бы уделил пристальное внимание инструменту Webpack».

По мнению Эй. Дж. Кона (AJ Kohn) технология AMP (Accelerated Mobile Pages – технология ускоренных мобильных страниц) уходит в прошлое и на первый план выходит использование вебпаков. Патрик акцентирует внимание на развитии протокола HTTP: «HTTP/3 будет горячей темой для обсуждения и, вероятно, обеспечит увеличение скорости в целом».

Schema и принципы работы структурированных данных: удивительная эволюция

Структурирование данных – это далеко не новая тема, но одна из самых быстро развивающихся.

«Внедрение и реализация Schema с целью «разнообразить результаты» стала жаркой темой для обсуждения на конференции Webmaster от Google. Я полагаю, это влечет за собой работу над выдачей более свежих результатов в поиске и постоянное внимание к сайтам и их репутации в Интернете. Используя структурированные данные, грамотно разработанный HTML-код, уделяя внимание скорости загрузки сайта и его контенту, Вы сможете укрепить свои позиции среди конкурентов и улучшить свои продукты.», – рассказывает Джеки Чу (Jackie Chu).

Мика (Micah) Фишер считает, что многие SEO-специалисты будут продолжать использовать инструмент Schema для публикации контента, поскольку входящий трафик является большой ценностью».

«Доступность Schema для не новостных сайтов повлекла за собой потенциальную проблему возникновения «фейковых новостей» для Google Assistant. Я предполагаю, что Google приложит все усилия для проверки различных фактов (используя инструмент Fact Check Tool), устранит ошибки и наладит чистоту поиска», – (Дэвид Соттимано).

Барри Адамс (Barry Adams) из Polemic Digital считает: «Мы видим, как Google использует все больше типов структурированных данных, начиная с тестовых бета-версий, а затем внедряя полноценные апдейты. Недавний успех бета-программ Speakable, HowTo, QA Page и FAQ Page показывает, что для Google использование структурированных данных является ключевым подходом к индексированию».

«Мы видим, как Google использует все больше типов структурированных данных, начиная с тестовых бета-версий, а затем внедряя полноценные версии.» – Барри Адамс.

В то же время, мнение технических SEO-специалистов разделяются. Некоторые думают, что Google будет выявлять структурированные данные без Schema, остальные считают, что разметка кодов в Schema будет по-прежнему иметь жизненно важное значение.

Стивен Ван Вессум (Steven Van Vessum), вице-президент компании ContentKing, прогнозирует уменьшение использования структурированных данных поисковыми системами. Он видит выход в применении более расширенных сниппетов (фрагментов) страниц, которые не имеют структурированных данных.

«Злоупотребление инструментом Schema происходит из-за активного стремления Google использовать расширенные сниппеты. Я наблюдал забавные ситуации, когда сайты используют Schema в своем коде не показывая все данные на своей странице, но при этом они получают расширенный сниппет в результатах выдачи. Дэвид Соттимано (David Sottimano’s): «Расширенные сниппеты страниц FAQs (часто задаваемых вопросов) при использовании Schema будут урезаны или полностью удалены из стандартов разметки из-за злоупотребления ими».

SEO-оптимизация в Amazon: новая возможность?

Amazon и Google давно сражаются за место под солнцем. Сейчас Google стала терять позиции в качестве платформы для поиска и покупок товаров в интернете.

По словам Гамлета (Hamlet), «Amazon сейчас находится на первом месте среди платформ, на которых люди ищут товары. Эта тенденция сохранится и в следующем году. Я думаю, что в сфере электронной коммерции все больше SEO-специалистов будут изучать оптимизацию сайтов именно на примере компании Amazon. Они начнут уделять больше внимания проработке воронки продаж, так как рекламодатели Google Adwords продолжают вытеснять любые ключевые слова, используемые с коммерческими намерениями».

«Я думаю, что в сфере электронной коммерции все больше SEO-специалистов будут изучать оптимизацию сайтов именно на примере компании Amazon.» – Гамлет Батиста (Hamlet Batista).

Неопределенность: больше подсказок, меньше жестких правил

Растущее использование машинного обучения породило концепцию «гибкой поисковой системы», в рамках которой контекст имеет большое значение. Эти изменения можно заметить в обновлениях основного алгоритма.

Сайрус Шепард (Cyrus Shepard), основатель Zippy и участник Tech Bound, отмечает: «Одной из самых популярных тенденций технической SEO-оптимизации, которая, несомненно, будет расширяться в 2020 году, является концепция «неопределенности». За последние 12 месяцев, Google все больше уходил от использования жестких правил, создавая более удобную среду для SEO с подсказками и советами.

  • Канонизация – это подсказка.
  • Ссылки – это подсказка.
  • Пагинация – это подсказка.

Это лишь малая часть то, что можно ожидать в ближайшие годы. В то же время, подобные изменения могут стать плохой новостью для SEO-специалистов, которые просто хотят, чтобы Google следовал установленным правилам. Google специально усложняет алгоритмы для улучшения результатов поиска, чтобы почувствовать себя свободным от влияния SEO.

Техническим SEO-специалистам потребуется более тщательно разобраться с данными «подсказками», так как Google продолжит развиваться за пределы официальной документации, и отставать ни в коем случае нельзя!».

Точность данных: снижение качества

SEO-специалисты разочарованы данными, которые предоставляет Google (или, может быть, разочарован только я). Поисковая выдача (SERP) продолжает развиваться быстрыми темпами, однако данные Search Console поиска за ней не успевают. Соответственно, становится все труднее оценить эффективность работы SEO-специалиста.

Патрик (Patrick) не видит «света в конце туннеля», потому что «Точность данных будет ухудшаться по мере их потери или невидимости».

«Устаревшие отчеты в GSC перестанут быть правдивыми и будут заменены менее качественными. Специалисты будут вынуждены искать точные данные у третьих лиц» – соглашается Дэвид.

Полагаю, наступают хорошие времена для инструментов, созданных третьими лицами.

SERP с нулевой выдачей: самая большая угроза для SEO

Эндрю Шотланд (Andrew Shotland), генеральный директор и основатель localseoguide.com: «Руководители начнут получать «нулевую» поисковую выдачу. Пока те пользователи, у которых в закладке находится Search Engine Land, все еще придерживаются тенденции "zero-click", остались и те, кто занимается распределением бюджета, отслеживанием органического трафика и следит за движением денежных средств. Современные модели атрибуции, к сожалению, не могут точно определить, как результат выдачи (сайт, на который вы не кликали) привел к конверсии. И поскольку многие результаты поисковой выдачи в сфере электронной коммерции выдают локализованные данные, понимание того, как Google My Business (оригинальный механизм выдачи результатов при нулевом количестве кликов) может привести как к онлайн-, так и к оффлайн-конверсии, будет иметь важное значение для руководителей, которые хотят получить реальную картину того, как функционирует их SEO. Притворяться, что это не имеет значения, больше не получится».

Думаю, пришло время перестать смотреть только на органический трафик и рейтинг и взяться за отслеживание более значимых вещей.

Мы должны признать, что Google больше не поисковая система. Это конкурент для всех.

«Доля органических кликов будет снова уменьшаться, и объявления, такие как https://www.google.com/search?q=mortgage+calculator&gl=us ("ипотечный калькулятор" в результатах поиска Google), будут занимать большую часть поисковой выдачи по недвижимости. Модель «Pay to play» уже давно актуальна, и вряд ли она прекратит свое существование», – добавляет Дэвид (David).

Дж. Р. Оукс (JR Oakes) рассчитывает на то, что «Google может использовать совокупность всего контента для выдачи более обширных и качественных ответов в поиске вместо использования расширенных сниппетов».

«Google станет понимать важность показа контактов / вопросов / характеристик объекта в зависимости от его типа». – Дж. Р. Оукс.

«Более того, он считает, «если цель поисковой выдачи – представить визуальные результаты, то предпочтительнее будут отображаться изображения, а не ссылки».

Индексирование через API: новый способ сканирования сети

Будущее индексирования и сканирования зависит от API. Поисковым системам совсем неэкономично сканировать сеть по мере ее роста. Следует подталкивать программистов использовать API для публикации нового контента.

Indexing API для сканирования страниц вакансий Google – это только начало, и ходят слухи, что его можно использовать и для контента, отличного от вакансий. Недавно компания Bing вырвалась вперед со своим разработанным Indexing API, и я думаю, что Google вскоре последует за ней.

«На горизонте технической SEO-оптимизации виднеются несколько интересных вещей, которые принесут что-то новое в 2020 году. Какое-то время Google занималась разработкой своим indexing API, и я думаю, что в 2020 году мы увидим, как эта пилотная версия будет запущена и возможно станет публичной. Это может оказать существенное влияние на работу технических SEO-специалистов, так как оптимизация сайтов для сканирования становится менее важной в пользу разработки API», – Барри Адамс.

«Google выпустит публичный indexing API в этом году, что станет лучшей альтернативой бессмысленному сканированию веб-сайтов и необоснованному потреблению ресурсов для обеих сторон», – Дэвид Соттимано.

Indexing API также могут решить проблему частично проиндексированных сайтов. Бартош считает, что «одна из самых больших проблем, с которой мы столкнулись в 2019 году (и которая почему-то все еще не пользуется популярностью в сфере SEO), заключается в том, что у таких крупных брендов, как Walmart, до 60% контента не проиндексировано в Google. Речь идет о миллионах долларов в месяц, которые можно получить, просто… проиндексировав ваш контент».

Очистка сайта, базовые правила

К сожалению, многие специалисты не могут довести сайт до идеального состояния, не могут даже исправить базовые ошибки. Мне еще не приходилось сталкиваться с сайтом, на котором бы все было идеально. Все может пойти крахом, независимо от того, насколько высок ваш уровень SEO. В прошлом я наблюдал множество хороших результатов после улучшения таких основных компонентов, как мета-теги, исправление ошибок 404, дублированный контент и ключевые слова.

Лили Рэй (Lily Ray): «Многие крупнейшие инициативы в сфере технической SEO-оптимизации в 2020 году будут связаны с «очисткой» сайтов.

Лили Рэй (Lily Ray) из Path Interactive «Многие крупнейшие инициативы в сфере технической SEO-оптимизации в 2020 году будут связаны с «очисткой» сайтов. На этом этапе веб-сайты часто проходят через многочисленные этапы, разбиваясь на множество отслеживающих пикселей или неиспользуемых файлов JavaScript или CSS, устанавливаются различные плагины, публикуются сотни фрагментов контента и т.д. В совокупности это приводит к тому, что сайты сталкиваются с множеством проблем, связанных с производительностью, сканированием и индексированием, что может повлиять на их скорость работы. Специалисту по технической SEO-оптимизации потребуется умение выявлять и решать эти проблемы. Именно здесь в игру и вступают такие инструменты, как Python, визуализация данных, анализ журнала файлов и возможность диагностики проблем JavaScript».

Возникновение таких трендов, как использование языка программирования Python, и, надеюсь, автоматизация процессов, помогут нам лучше справиться «очисткой» сайтов. Но поскольку большинство сайтов не справляются с трудностями, Google возьмет дело в свои руки.

Стивен ван Вессум (Steven van Vessum) из ContentKing считает: «В 2020 году поисковые системы будут продолжать осуществлять попытки автокоррекции проблем технической SEO-оптимизации, таких, как: неправильные редиректы, борьба с дублирующимся контентом (внедрение атрибута canonicals) , борьба с одинаковым содержанием, но на разных языках (атрибут hreflang), директивы для роботов (теги Meta / X-Robot-Tag) и исправление неправильных кодов HTTP. Хотя этот подход далек от совершенства, от этого выиграют сайты с серьезными проблемами (на которых их должным образом не устранить).

Рендеринг Javascript: уже есть или еще нет?

Может ли Google в достаточной степени сканировать Javascript или нет, все еще остается вопросом. Честно говоря, в «сканировании Javascript» есть свои нюансы. Google утверждает, что может отрендерить все, но тесты все чаще показывают обратное.

«Начиная с 2019 года каждый электронный магазин имеет свой веб-сайт со встроенным JavaScript. 80% крупнейших электронных магазинов используют JavaScript для показа своего важнейшего контента. От этого уже никуда не деться», – Бартош Горалевич напоминает о важности рендеринга Javascript.

«80% крупнейших электронных магазинов используют JavaScript для показа своего важнейшего контента. От этого уже никуда не деться», – Бартош Горалевич.

Рут Барр Риди из Upbuild считает: «Одной из главных тем технической SEO-оптимизации есть и будет растущая способность поисковых систем парсить и рендерить JavaScript. Что может рендерить Google, что он, вероятно, отрендерит, и что он отрендерит по факту – это большой вопрос. Специалист по технической SEO-оптимизации в 2020 году должен уметь различать эти вещи».

Давид Соттимано видит обратное: «Рендеринг станет выполняться в реальном времени и будет поддерживать новейшие версии JavaScript. Не будет никакой задержки между первоначальным извлечением и полным рендерингом веб-страницы. В конечном итоге прекратятся бесконечные разговоры SEO-специалистов о проблемах индексации JavaScript, и мы сможем забыть о трудоемких и запутанных обходных решениях».

Дж. Р. Оукс раскрывает интересную перспективу для рендеринга: «Google будет парсить DOM (Document Object Model – «объектная модель документа»), а также shadow DOM, в поисках контента».

Доступность: хорошо и для пользователей и для поисковых систем

На мой взгляд, обеспечение доступности также полезно и для SEO. Описательные alt-теги, логичные структуры h-тегов и вспомогательные тексты ссылок (anchor text) удобны как для поисковой системы, так и для пользователя. Я не знаю, что можно сделать для повышения доступности, что могло бы навредить SEO.

Тем не менее, Дж. Р (JR) считает, что «Вероятнее всего, продолжительность жизни alt-тегов ограничена, они перестанут быть полезными, и появятся программы чтения с экрана и браузеры, которые смогут понимать контекст изображения».

Рут по-прежнему считает, что за доступность должны отвечать SEO-специалисты и веб-разработчики: «Еще одна важная тема – это доступность сайтов не только для поисковых систем, но и для людей с ограниченными возможностями, которые используют альтернативные технологии для работы в Интерене. Я думаю, что SEO-оптимизаторы должны обращать внимание на такие вещи, как доступность сайтов: использовать программы для чтения текста, правильно подбирать цвета. Это стоит сделать не только потому что это правильно, но и потому что за счет машинного чтения Google может понять, является ли сайт наилучшим ресурсом для ранжирования. Я не говорю, что эти вещи являются «фактором ранжирования», но просто то, что они могут этому способствовать. Да и сам сайт в целом стоит делать качественно.

Машинное обучение: становится еще сложнее

С тех пор, как Google внедрила машинное обучение в алгоритм поиска, SEO-специалистам стало труднее распознавать все сложности продвижения. Но вскоре появилась нейронная сеть BERT, и теперь все кажется возможным.

Дэвид Соттимано согласен с тем, что: «на детальном уровне сложно понять, что происходит с результатами поиска, но я предполагаю, что дополнительные нестандартные показатели будут влиять на SERP».

Посмотрите на запрос «лучшие солнцезащитные очки» (best sunglasses). Почему Google ранжирует больше страниц, связанных с «мужчинами»? Потому, что Google считает, что больше мужчин делают такой запрос? Если так, то откуда эти данные?

Google действительно делает умные вещи (https://twitter.com/jroakes/status/1019935398766825472). Я думаю, что нам будет непросто «попытаться» объяснить результаты поиска и состояние поисковой выдачи в 2020 году».

Поисковая выдача Google будет меняться в зависимости, например, от сезона. Намерения пользователей меняются в зависимости от времени года, как и ранжирование.

Рут (Ruth) считает, что шансы на победу более высоки у хорошего контента. И это не случайно, ведь Google способен определять качество контента, поэтому: «Я надеюсь, что вся эта суета вокруг BERT заставит большее число людей разобраться в Natural Language Processing (обработке естественного языка), в результате чего контент в интернете станет короче, проще и удобнее для чтения».

Дж. Р. Оукс (JR Oakes) ожидает увидеть «достоверный, уникальный и легальный контент, сгенерированный при помощи на NLU (Natural Language Understanding)».

HREFLANG: необходимое зло?

Hreflang – один из самых запутанных тегов и одна из самых больших проблем для международных сайтов.

«Я не удивлюсь, если в 2020 году Google перестанет поддерживать мета-теги hreflang. В своем нынешнем виде hreflang неудобен в использовании и подвержен ошибкам. Я полагаю, что Google ищет более простое и прозрачное решение для интернационализированного контента. Возможно, это можно будет решить путем поддержки hreflang только в XML-картах сайтов, внедрения альтернативного подхода или модернизации системы индексации Google без использования мета-тегов hreflang». – Барри (Barry).

Как и в случае с каноническими тегами или тегами заголовков, если Google получает достаточное число противоречивых сигналов, то поисковик сам решает, что с этим делать.

Тяга к SEO-бизнесу

«Инвесторы начнут серьезно относиться к SEO-бизнесу» – Эндрю Шотланд (Andrew Shotland).

«Секрет SEO, буквально известный всем, состоит в том, что в эту сферу достаточно трудно привлечь инвесторов. Принимая во внимание сложности SEO-оптимизации различных известных сайтов, таких как TripAdvisor и Expedia, компании венчурного капитала и прямого инвестирования понимают, что SEO является критически важной отраслью с глобальным объемом целевого рынка и постоянно растущими бюджетами. Как человек, поддерживающий инвестиции в сферу SEO, я ожидаю увидеть немалые вложения в продвижение сайтов. Крупные игроки, такие как BrightEdge и SEMRush, попытаются завершить свои сделки, в то же время отогнав от себя сотни SEO-стартапов, которые все вместе фантазируют о том, как они проведут аудит их сайта в тысячный раз. Безумная мысль: SiteBulb, ScreamingFrog & Moz, да Moz, уже были куплены».
И я не думаю, что это так уж безумно. Мы видели, как Conductor был куплен WeWork – вот это было поистине безумно!

Техническая SEO-оптимизация в 2020 году: больше сложностей, больше возможностей

Если бы мне пришлось резюмировать эти прогнозы, я бы сказал, что мы сталкиваемся не только с большой сложностью, но возможностями дифференцировать одни сайты от других за счет хорошей работы. Чем глубже уровень технической SEO-оптимизации, тем больше придется учиться и работать. Но при этом мы получим высшую награду в виде увеличения трафика.

Поскольку техническая SEO-оптимизация становится все глубже и сложнее, я считаю, что крупные сайты и компании, которые не вкладывают ресурсы в оптимизацию, будут сильно отставать.

Время покажет, правы мы или нет, но я рад грядущим изменениям!

Материал предоставлен на основе статьи Кевина Индига «15 experts reveal the trends for Technical SEO in 2020».

0
9 комментариев
Написать комментарий...
Павел Андрейчук

Продвижение- оно моё.

Ответить
Развернуть ветку
Андрей Симагин
Автор

Спасибо, исправил.

Ответить
Развернуть ветку
Олег

Не за что.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Андрей Симагин
Автор

Какая фишечка, о чем речь? Можно подробнее?

Ответить
Развернуть ветку
Юрий Уланов

Офигенный перевод! Уже по заголовку видно, что не особо напрягались

Ответить
Развернуть ветку
Андрей Симагин
Автор

Изначально был другой заголовок, который я решил немного подкорректировать, а второпях вышло как вышло... Сейчас это исправлено.

Ответить
Развернуть ветку
Михаил Лукьянов

Спасибо. Подобные материалы радуют. Не единым контекстом жив интернет-маркетинг.

Ответить
Развернуть ветку
Андрей Симагин
Автор

Спасибо!

Ответить
Развернуть ветку
6 комментариев
Раскрывать всегда