3. Использовать авторизацию. Некоторые страницы — например, личный кабинет и «черновики», находящиеся в разработке, — можно закрыть от роботов формой авторизации. Это самый надёжный способ, так как даже те страницы, индексация которых запрещена в robots.txt или директивой noindex, могут попасть в поисковую выдачу, если на них ведут ссылки с других страниц.
Disallow не лучшая идея. Это всего лишь пожелание, не прямая директива. Google так и вовсе на неё традиционно кладёт, если у него есть более весомые доводы индексировать страницу - например, внешние ссылки, трафик и всё такое. Яндекс в этом плане тоже стал вести себя очень странно. noindex - наше всё.
Я вот с перелинковкой не соглашусь. Теоретически то оно правильно, но по факту ничего подобного. У меня были и большие сайты и малые, сколько раз делал упор на перелинк толку ноль. Сейчас вообще делаю без перелинка и все тип топ. По всей видимости нам просто пудрят мозги: поисковикам не любо когда их ботов гоняют по страницам))
А про скорость загрузки где? Если страница загружается больше 30 секунд по живым данным, то и индексировать её не получится, потому что может выйти по таймауту краулинг.
Вот у вас, например, страница с видосами, загружается до интерактивности 13+ секунд. Тут конечно сложностей не будет, но я бы работал над ускорением такого типа страниц.
Можете глянуть подсказку тут https://youtu.be/qcJz8nuqYYY?t=2588.
Я читал, что гуглобот ждёт до 2 минут, прежде чем прекратить попытку просканировать страницу (данные, примерно, двухгодично давности). Информация про 30 секунд официальная или свои данные?
Не индексируется страница https://www.instagram.com/zhk.sochi.park/