Мы применили гибридную модель, в которой рендер первоначальной страницы (а значит и рендер для роботов) происходит на сервере. В браузер попадает готовая страница. Но при любом последующем переходе происходит JS-навигация и подгружаются только те блоки, которые отличаются от предыдущей страницы. Ключевые данные (например, информация о пользователе, корзина и т.д.) остаются постоянно загруженными. Кроме того, такая модель позволяет подгружать необходимые скрипты по мере необходимости: изначально грузятся только те скрипты, которые нужны для первой страницы и для самых важных страниц, на которые пользователь может уйти (для быстрого перехода), но постепенно догружается остальное.
Норм кейс!
Остальные технические SEO задачДочитала до этого пункта и остановилась, чтобы немного отойти от списка выявленных проблем и очередного упоминания JS и рендеринга. Эмпатия — страшная вещь.
Написано хорошо, только вычитано не очень тщательно.
Спасибо, куда уж без JS)) Это хорошо еще не под Яндекс, а то были бы еще ПФ) Благодарю за критику, буду тщательнее вычитывать.
Отличный опыт, Сергей. Спасибо, забрал себе в заметки.
Хорошая статья, Серег, было интересно читать!
Комментарий недоступен
Комментарий недоступен