Речь пойдёт о технической оптимизации. Абсолютное большинство сайтов используют JS для улучшения пользовательского опыта, сбора статистики, интерактивности, загрузки контента, меню, кнопок и других элементов. Наша цель, как SEO-специалистов, облегчить процесс сканирования контента и по возможности избегать проблем, которые часто возникают при обработке страниц, использующих JavaScript.
Верстать нужно контент так, чтобы он и с отключенным JS отображался. Тогда не надо и думать о проблемах его индексации.
Достаточно знать, что пол это java))
Это лаваскрипт
Ну, в сравнении с Яндексом, Google тут всё равно на уровне!
Так вроде ж есть методы отдачи страниц динамических сайтов с превращением в статику для поисковых ботов в момент парсинга, чтобы роботам поисковиков было удобнее парсить? Не?
А данный метод подойдет для страниц, которые сделаны полностью на JS?
К большому сожалению, данная тема до сих пор по нормальному не решена.
Именно поэтому SSR так популярен.
Ну не умеют боты поисковиков по нормальному парсить текст страниц сгенерированных JS-ом.
Вроде чего сложного, а не умеют.
И выбор либо забить на качество SEO, либо SSR.