SEO-тест или как изменчиво seo-продвижение
В ТГ есть seo-тест. Я его проходила один раз и получила тогда оценку Middle SEO. Был 2017, за плечами курс Дмитрия Шахова, и результат «Middle» меня устроил.
Сейчас скиллушки прибавилось, я взяла босса — 100 вопросов на тайминг в ~60 минут. И снова получила результат: «Поздравляем, вы Middle SEO».
Судя по вопросам теста, он давненько не обновлялся. Эта статья не нацелена на критику создателя теста — ну сделал и сделал.
Я прошла тест на 100 вопросов, заскринила все варианты ответов, получила результаты с неверными утверждениями. Потратила дофига часов для ресерча по патентам, и справкам Google и Яндекс. Хочу поделиться реальными ошибками, которые допустила в тесте и показать фейк-ошибки. Если вдруг вам попадется этот или любой другой seo-тест — всегда проверяйте информацию по официальным источникам и не верьте слепо всему, что пишут в интернетах.
Описание SEO-теста
Тест предлагает пройти: 15/ 30/ 50/ 100 вопросов.
База знаний по тесту немаленькая: там и про мадридский доклад, и про PR, и про техничку. Джун легко получит микроинфаркт от контекста некоторых вопросов.
Содержание
Я покажу только те вопросы, по которым совершила ошибки.
Разберем:
- Реальные и фейк-ошибки (в чём тест не прав)
- Патенты, официальные заявления поисковиков
- Как бывает на практике вопреки официальным данным
SEO-ошибки: мифы и реальность
По результатам теста я прошла его на 68%: из 100 вопросов 68 верных ответов. По итогам 2-дневного разбора результаты из 32 «неверных»:
- 20 действительно неверных ответов
- 5 спорных
- 7 верных
75% верных ответов против 68% изначальных. И 80% ±верных.
Кстати, итоги теста не показывают, какой ответ является корректным. Это делает исследование еще более захватывающим и душным.
Погнали разбираться.
Вопрос №1: В каком случае страница точно не будет проиндексирована в Яндексе и Google?
Варианты ответов:
1. Если в её секции head содержится мета-тег robots, с noindex,follow
2. Если её адрес соответствует запрещающему правилу в robots.txt
3. Если она отдаёт заголовок X-Robots-Tag с директивой noindex,nofollow
Мой ответ: 2❌. Верный ответ: вероятно, 3, а может и 1.
Объяснение
Я ответила неверно. Для 100% защиты нужен X-Robots-Tag.
X-Robots-Tag — это серверная настройка. То есть робот не будет пытаться скачать страницу, а еще на этапе обращения к серверу развернется.
Мета <meta name="robots" content="noindex, follow"> запрещает индексацию. Релевантно для HTML. Робот приходит, выкачивает страницу, при обращении к коду видит запрещающий мета-тег — уходит.
Официальные источники
Google говорит: используйте meta name="robots" или X-Robots-Tag, но тогда не закрывайте документ в robots.txt. Если url перекрыт на уровне robots.txt, то робот не сможет обратиться к странице.
Яндекс говорит также и дает подробное объяснение, как использовать ответы и мета, миксовать и задавать их для разных роботов.
Вопрос №2: Согласно заявлениям поисковых систем, meta-keywords используется в ранжировании?
Варианты ответов:
1. Нет в Google, может в Яндексе
2. Да
3. Нет в Яндексе, может в Google
4. Нет
Мой ответ: 2 ❌. Верный ответ по тесту: не знаю, по логике 1 — нет в Google, может в Яндексе.
Объяснение и официальные источники
Ответила неверно, но честно — это миссклик.
Google не использует meta-keywords в ранжировании с 2009 года (по официальным заявлениям). Яндекс сидит на двух стульях.
Кстати, я тут охотилась куклобобра недавно — очень в тему о кейвордах почитать.
Вопрос №3: В Яндекс.Вебмастере в отчете «Все запросы и группы» выводится нецелое количество показов. Почему?
Варианты ответов:
1. Это ошибка расчетов алгоритмов Яндекса
2. Данные о частотности запроса взяты из Wordstat и разделены на 30
3. Используются усреднённые данные за последние 7 дней
4. К количеству показов применяются нормирующие коэффициенты в зависимости от позиции
Мой ответ: 3 ❌, он неверный. Но и верного тут не предлагается. Верный ответ по тесту: не знаю, возможно про 7 дней т.к. сейчас в справке есть упоминание о нормировании данных по позиции.
Объяснение и официальные источники
В поддержке ВМ сказали:
❔Олды тут? Если кто-то помнит или видел показы в нецелых числах — отзовитесь в комментах.
Потом исправились.
Вопрос №4: Google проиндексировал 10 страниц в тестовом разделе. Какой из методов позволит навсегда удалить их из поиска?
Варианты ответов:
1. Любой из вышеперечисленных методов
2. Добавить canonical
3. Установить базовую HTTP-аутентификацию
4. Указать Disallow: /test/ в robots.txt
Мой ответ: 4 ❌(ткнула его т.к. всегда использую 404 / 410 для мусора, и 301, если страница ценная). Верный ответ по тесту: 3 — установить базовую HTTP-аутентификацию.
Объяснения и официальные источники
Google предлагает несколько вариантов удаления контента навсегда. Что надо сделать (одно из):
- Удалите или измените контент сайта (изображения, страницы, каталоги) и убедитесь, что ваш веб-сервер отправляет ответ с кодом статуса HTTP 404 (не найдено) или 410 (удалено). Файлы, формат которых отличается от HTML, например документы PDF, следует удалять с сервера полностью.
- Заблокируйте доступ к контенту, например установите пароль.
- Укажите, что страница не должна индексироваться, используя метатег noindex. Этот метод менее безопасен, чем остальные.
- Не используйте файл robots.txt, чтобы скрыть страницу из результатов Google Поиска.
Вопрос №5: Для чего может использоваться тег ?
Варианты ответов:
1. Ничего из вышеперечисленного
2. Для указания роботу, какую страницу индексировать из группы схожих страниц
3. Все вышеперечисленное
4. Для указания роботу Яндекса главного зеркала сайта
Мой ответ: 2 ✅. Верный ответ по тесту: не знаю.
Объяснения и официальные источники
Баг или правила игры поменялись? Не знаю. Кек в том, что вопросы в итоговой оценке ответов переколдованы: в ТГ один порядок, а в результатах другой.
Вопрос №6: Что является обязательным условием для продвижения в нескольких регионах в Яндексе?
Варианты ответов:
1. Все вышеперечисленное
2. Наличие телефонов с кодом города или номера 8-800
3. Наличие адресов в продвигаемых регионах
4. Ничего из вышеперечисленного
Мой ответ: 3✅. Верный ответ по тесту: не знаю.
Объяснение и официальные источники
Яндекс дает развернутый ответ по теме: сейчас, чтобы подтвердить реальную принадлежность к какому-либо городу, мы доказываем информацию адресом.
Система не самая умная т.к. можно указать левый адрес условного ТЦ с номером офиса, и Яндекс это съест. Да, они делают проверки: звонят или даже приходят. Но проверить всех невозможно.
Вопрос №7: Какой наиболее достоверный способ определить наложение хостового фильтра Баден-Баден?
Варианты ответов:
1. Минус 40 позиций по всем запросам, включая брендовые
2. Минус 20 позиций по всем запросам, включая брендовые
3. Отметка в Яндекс.Вебмастере
4. Проверка запросом «название_бренда (site:example.ru | site:konkurent.ru)
Мой ответ: 2 ❌. Верный ответ по тесту: 3 — Отметка в Яндекс.Вебмастере.
Объяснения и официальные источники
Не сталкивалась с этим фильтром. Знаю лишь, что паттерны хостовых фильтров — это всегда отрицательная динамика сразу по бренду и небренду.
Здесь же Яндекс сам заявляет, что искать Баден-Баден нужно в разделе Вебмастера «Безопасность и нарушения».
Вопрос №8: Что может быть использовано в качестве заголовка сниппета в выдаче Яндекса?
Варианты ответов:
1. Тег title
2. Все вышеперечисленное
3. Open Graph title
4. Тег h1
Мой ответ: 1 ✅. Верный ответ по тесту: не знаю.
Объяснения и официальные источники
Яндекс прямо говорит, что title используется для заголовка сниппета.
Про Google в вопросе не было, но там все интереснее, поэтому обсудим. Согласно документации, заголовок сниппета может тянуться из:
- содержимое тегов<title>
- основной видимый заголовок на странице
- текст в тегах заголовков и подзаголовков на странице, таких как<h1>
- содержимое теговog:title(meta)
- другой заметный текст на странице, выделенный определенным стилем
- остальной текст на странице
- текст ссылок на странице
- текст в ссылках, которые указывают на страницу
- структурированные данные типа WebSite
Кстати, если в сниппеты Гугла попадает какая-то шляпа, попробуйте воспользоваться HTML-атрибутом data-nosnippet.
Вопрос №9: Какое значение наиболее достоверно отражает возраст страницы в индексе Яндекса?
Варианты ответов:
1. Значение «modtime» в ответе Яндекс.XML для данной страницы
2. Дата первого обнаружения страницы по web.archive.org
3. Дата сохранённой копии страницы в Яндексе
4. Значение created в WHOIS-данных домена
Мой ответ: 2❌✅. Верный ответ по тесту: не знаю.
Объяснения
Раньше, видимо сохраненка показывала первую дату? Сейчас нет.
❔Делитесь, у кого какие методы проверки работают?
Если вы владелец сайта, то можно поискать данные в Вебмастере или обратиться к логам. Различные онлайн сервисы, которые имеют собственные базы — тоже юзабельно.
Вопрос №10: Какое из этих условий является обязательным для появления сайта в индексе поисковых систем?
Варианты ответов:
1. Наличие sitemap.xml
2. Наличие robots.txt
3. Код HTTP 2** у страниц сайта
4. Все вышеперечисленное
Мой ответ: 2 ❌. Верный ответ по тесту: 3 — 200 ответ.
Объяснение
Я ответила неверно. Искала глубинные смыслы, а надо было мыслить буквально. Фактически для попадания в индекс страница просто должна отдавать HTTP-статус 2xx. Без 200 ОК робот не скачает страницу. А robots.txt и sitemap.xml — рекомендуемые, но не обязательные штуки.
Отмечу нюанс: иногда путают понятия индекса и ранжирования на выдаче.
1. Индексирование — это когда робот приходит к вам на сайт, скачивает документы и сохраняет в базу поисковой системы.
2. Ранжирование на выдаче — многоуровневый процесс, где с помощью машинного обучения документы выбираются для показа на какой-либо позиции по определенному запросу.
Вопрос №11: Главную страницу сайта посетили дважды: в 7 часов утра и в 22 часа вечера. При этом первый визит был совершен с ПК, а второй — с мобильного устройства, но на обоих был совершен вход в один и тот же аккаунт Яндекса. Сколько посетителей, визитов, просмотров отразится в Метрике?
Варианты ответов:
1. 2 посетителя, 1 визит, 2 просмотра
2. 2 посетителя, 2 визита, 2 просмотра
3. 1 посетитель, 1 визит, 2 просмотра
4. 1 посетитель, 2 визита, 2 просмотра
Мой ответ: 4✅. Верный ответ по тесту: не знаю.
Объяснения и официальные источники
В Яндекс.Метрике посетители имеют уникальные ClientID — параметры автоматические, он зашиты в куку при первом обращении пользователя к сайту. При этом, если пользователь был залогинен в учетке Яндекса на обоих устройствах (под одним акком) — Метрика посчитает его одним посетителем (кросс-девайс). Это делается с помощью Крипты.
Визит в Метрике обрывается через каждые 30 минут бездействия или при смене устройства. Просмотры же — это сколько страниц просмотрено.
Итого: 2 устройства и большой промежуток во времени — это два визита с 2 просмотрами.
Вопрос №12: Каким образом может повлиять реклама в Яндекс Директ на SEO сайта в Яндексе?
Варианты ответов:
1. Платная реклама не влияет на SEO
2. Увеличить ИКС сайта
3. Улучшить позиции сайта
4. Улучшить или ухудшить поведенческие факторы
5. Присвоить дополнительные регионы
Мой ответ: 3 ❌✅ a.k.a философский. Верный ответ по тесту: наверно 1 или 4.
Объяснения и официальные источники
Яндекс не предлагает купить рекламу, чтобы улучшить позиции.
Просто на опыте замечено: чем больше льешь в директ, тем лучше для органики. Да, Директ даст какие-то доп. данные по ПФ, но стоит ли принимать такую корреляцию за истину? Решает каждый сам.
Вопрос №13: В чём основное проявление аффилированности сайтов в Яндексе?
Варианты ответов:
1. Каждый из группы аффилированных сайтов имеет видимость ниже, чем если бы аффилиата не было
2. Нестабильность позиций группы сайтов в выдаче
3. По одному запросу в ТОП-10 может быть показан только один из группы аффилированных сайтов"
4. Все вышеперечисленное
Мой ответ: 4 ❌✅. Верный ответ по тесту: не знаю.
Объяснения
Я с аффилиатами никогда не сталкивалась, знаю только базу: сайты могут быть склеены по юр данным, адресу, телефону, товарам и прочим признакам. Как следствие, все указанные в тесте симптомы могут иметь место.
❔Сталкивались ли вы в Яндексе с аффилированными проектами, как лечили?
За мнение обратимся к экспертам (статья 23 года): Сергей Людкевич на хабре пишет:
Самый релевантный документ из всех сайтов группы аффилиатов показывается в выдаче согласно его релевантности, а вот самый релевантный документ со второго сайта группы получает к своей релевантности приличный дисконт (обычно эквивалентный нескольким десяткам позиций), но все-таки показывается в выдаче, и так далее по всем сайтам группы.
Если самые релевантные документы с двух сайтов группы аффилиатов имеют близкие расчетные значения релевантности, то можно наблюдать своеобразную чехарду – сегодня документ с сайта А, скажем, в топ-10, а документ с сайта В, скажем, в топ-50, а завтра – наоборот – документ с сайта В – в топ-10, документ с сайта А – в топ-50. Послезавтра – опять ротация.
Вопрос №14: Выберите правильное утверждение про директиву Crawl-delay в robots.txt
Варианты ответов:
1. Задает задержку сканирования страниц роботами Яндекса
2. Не учитывается в Яндексе и Google
3. Задает GET-параметры, которые не нужно учитывать при индексировании роботам Яндекса
4. В Google не учитывается
Мой ответ: 1❌. Верный ответ по тесту: не знаю.
Объяснения и официальные источники
Привет из 2018. Новость о Crawl-delay мимо меня прошла.
Директива Crawl-delay задаёт задержку между запросами роботов к сайту. Однако в Яндексе она не используется с 2018 года. В Google тоже не используется, там предлагают альтернативные методы — передавать ответы 500, 503, 429.
Вопрос №15: В каких случаях оптимально использовать редирект с кодом ответа сервера 302 при продвижении сайта?
Варианты ответов:
1. При переезде на защищённый https-протокол
2. При смене URL продвигаемой страницы
3. Ни в одном из перечисленных случаев
4. В обоих перечисленных случаях
Мой ответ: 2 ❌. Верный ответ по тесту: 3 — ни в одном из перечисленных случаев.
Объяснения
Ответила неверно фактически. Здесь речь идет о конкретных действиях: смена урла и переезд на https.
Ошибка не в незнании целей редиректов. Это база. Но 302 иногда использую для тестов: одну посадку заменить на другую. Например, при склейке 2 документов с одинаковым интентом — выбираю менее конкурентный маркер, когда ВЧ никак не двигается.
Вопрос №16: Сколько ключевых слов на 1000 знаков нужно использовать?
Варианты ответов:
1. Одно
2. Всё зависит от тематики, запроса и конкурентов
3. Два-три
4. Ключевые слова лучше не использовать, так как велик риск получить Баден-Баден
5. Четыре-пять
Мой ответ: 2 ✅. Верный ответ по тесту: не знаю.
Объяснения
25 год, ключевые слова почти умерли. Триграммы, интент, уточняющая семантика, сущности и жертвоприношение богам поисковых систем — вот что реально работает.
Вопрос №17: Будет ли проиндексирована страница https://example.ru/test/?sort=price на сайте с таким robots.txt (при отсутствии других запретов или разрешений): Allow: /test/ + Disallow: *?
Варианты ответов:
1. Нет
2. Неизвестно
3. Да
Мой ответ: 1 ❌. Верный ответ по тесту: 3 — да.
Объяснения и официальные источники
Я ответила неверно. Джунская ошибка по факту.
Парадокс: если бы мне сказали сделай роботс, где надо разрешить test, но запретить вложенные в него страницы с параметрами ? — я бы с закрытыми глазами написала правила.
Разберем по порядку:
- Allow: /test/ разрешает сканирование всех урлов, начинающихся на /test/
- Disallow: *? запрещает сканирование всех урлов с параметрами "?"
Если урл содержит "?", а правило Disallow: *? запрещает его сканирование, то робот не придет?
А вот и нет. Во-первых, если страница запрещена в robots.txt, но попалась роботам в линковке или карте сайта, то она может попасть в индекс. Во-вторых, Яндекс выберет из двух пересекающихся правил то, которое отвечает более подробному. Директивы Allow и Disallow сортируются по длине префикса URL (от меньшего к большему) и применяются последовательно. В Google отличий нет.
Простыми словами: разрешить /test/» — узкое правило, оно побеждает общий запрет на параметр "?". Так /test/?sort=price робот спокойно скачает и отправит в индекс. Чтобы запретить все урлы с параметром "?" для папки test, правило должно быть таким: Disallow: /test/?*.
Вопрос №18: На странице пагинации в интернет-магазине https://example.ru/televizory/?page=2 указан канонический адрес https://example.ru/televizory/. Будет ли проиндексирована страница https://example.ru/televizory/?page=2 (при отсутствии других запретов или разрешений)?
Варианты ответов:
1. Нет
2. Неизвестно
3. Да
Мой ответ: 2 ✅. Верный ответ по тесту: не знаю.
Объяснения и официальные источники
Вопрос №19: На борьбу с чем направлен DMCA-фильтр в Google?
Варианты ответов:
1. Со спамом ключевых в текстовом контенте
2. С неэкспертным медицинским и финансовым контентом
3. С нарушением авторских прав на контент
4. Со спамом во внешних ссылках на сайт
Мой ответ: 2 ❌. Верный ответ: 3 — с нарушением авторских прав на контент.
Объяснения и официальные источники
В целом я знаю про авторские права, но как аббревиатура выглядит — нет. Нуу, наверно это: «дистрактив медисин контэнт и что-то еще на A».
Все гораздо проще: DMCA — закон об авторском праве. А вот тут статку можно по теме изучить.
Вопрос №20: Как можно ускорить индексацию новой страницы на сайте в Яндексе?
Варианты ответов:
1. Добавить в sitemap.xml
2. Все вышеперечисленное
3. Добавить в инструмент «Переобход страниц»
4. Разместить сквозную ссылку на новую страницу
Мой ответ: 3 ✅❌. Верный ответ по тесту, вероятно: 2 — все вышеперечисленное.
Объяснения и официальные источники
Я почему-то восприняла этот вопрос в другом смысле — какой самый быстрый способ. Комплексный эффект, безусловно, лучше одного действия.
Кстати, в Яндекс для ускорения индексации еще есть IndexNow.
Вопрос №21: Как осуществляется обработка 301 редиректа роботом Яндекса при переезде?
Варианты ответов:
1. Страница, осуществляющая редирект, не удаляется из выдачи до индексирования цели редиректа
2. При обнаружении редиректа страница удаляется из выдачи
3. Цель редиректа попадает в выдачу после её индексации
4. Робот индексирует контент цели, а в выдаче выводится URL источника редиректа
5. В результатах выдачи отображается наиболее короткий URL из пары источник редиректа/цель редиректа
Мой ответ: 1 ✅❌. Верный ответ: 3 — цель редиректа попадает в выдачу после её индексации.
Объяснения и официальные источники
Правильный и точный путь таков: робот видит 301 — индексирует цель — показывает в выдаче. Первый ответ тоже является верным утверждением, но предметно 3 вариант более корректен.
Вопрос №22: В каком случае засчитается «Внутренний переход» в Яндекс.Метрике?
Варианты ответов:
1. Переход пользователя со страницы сайта на внешний ресурс
2. Переход пользователя с внешнего ресурса на страницу сайта
3. Переход пользователя со страницы сайта, на которой отсутствует счётчик Яндекс.Метрики
4. Переход пользователя с одной страницы сайта на другую
Мой ответ: 4 ✅. Верный ответ по тесту: не знаю.
Объяснения и официальные источники
В тесте по сути нет точного верного ответа. Я ответила как можно ближе к актуальным данным.
❔Раньше внутренние переходы скрывали другой смысл?
Яндекс определяет это понятие так: если тайм-аут по сессии кончился, но окно с сайтом в браузере осталось открытым, то возобновлённая сессия запишется как внутренний переход.
Вопрос №23: Выберите правильное утверждение про региональные поддомены для Яндекса
Варианты ответов:
1. Все вышеперечисленное
2. На страницах поддоменов должен быть уникальный текстовый контент
3. Поддомены будут индексироваться, только если указать где-либо на основном сайте ссылки на них
4. При неправильной настройке поддомены могут быть «склеены»
Мой ответ: 2 ✅❌. Верный ответ по тесту вероятно: 1 — все вышеперечисленное.
Объяснения и официальные источники
Поддомен — это отдельный сайт. Согласно Я.Справке достаточно добавить сайт в Вебмастер, чтобы сообщить поиску о нем.
Фактически проставление ссылок с основного сайта может быть необязательным условием, но текстовый контент должен быть уникализирован хотя бы топонимами.
Вопрос №24: У вас интернет-магазин мобильных телефонов, и вы решили купить пару ссылок на Sape или GoGetLinks. Вы оформляете первую сделку с вебмастером. Система требует указать анкор будущей ссылки. Этим анкором будет
Варианты ответов:
1. Нужно смотреть статистику запросов, связанных с бизнесом, и выбирать ключ с наибольшей частотностью. Вписывать низкочастотный запрос в анкор ссылки нет смысла
2. Фраза «купить мобильный телефон». Можно ещё добавить название города, в котором работает магазин
3. Название магазина (не коммерческий, а брендовый запрос). Нет гарантии, что будет лучше, но хуже точно не будет
4. Лучше перестраховаться и обойтись без анкора. Просто ссылкаМой ответ: 2✅❌. Верный ответ по тесту: не знаю.
Объяснения и официальные источники
Размяла кулачки.
Погнали делать ресерч по патентам ссылочного. Сори, ссылок на русском на патенты нет.
Важное по патентам:
- US6285999B1 рассказывает про классический PageRank-подход, где вес ссылки зависит от того, насколько текст анкора совпадает с поисковыми терминами.
- US8380722B2 предлагает адаптивную модель, которая оценивает вес анкора не только по тексту, но и по «связям» между донором и акцептором, а также между собой.
- US8458207B2 говорит о том, что анкор может выступать контекстом для сниппета и влиять на выдачу, но при этом несколько анкоров с разных сайтов (и разной формулировки) помогают показать наиболее релевантную формулировку пользователю.
Кстати, классно про ссылки пишут Алексей Какаво SEO и Андрей SEO ТРЕНД.
Нет коктейля из правил, как строить ссылочный профиль. У меня на практике было даже так: nofollow ссылка с крупняка дала большой рост по ВЧ-кластеру (из ~топ6 в ~топ3).
Вопрос №25: Главный фактор ранжирования сайта — это
Варианты ответов:
1. Мобильная версия
2. Ссылки
3. Поведенческие факторы
4. Контент
В тесте нет верного ответа. Ссылки для Google, ПФы для Яндекс. У меня всё.
Вопрос №26: Влияют ли на ранжирование ссылки из соцсетей?
Варианты ответов:
1. Влияют
2. Нет, не влияют
3. Влияние есть, но меньше чем у обычных ссылок
Мой ответ: 3 ✅. Верный ответ по тесту: не знаю.
Объяснения
Формально ссылки из соц.сетей не будут передавать вес, например, из-за запретов по атрибуту nofollow. Однако некоторые ссылки из соцсетей индексируются. Упоминания бренда — тоже фактор.
Вообщем, не соглы. Хотя бы Ютуб и X плотно индексируются.
Вопрос №27: Какое из первых правил перелинковки стоит запомнить начинающему оптимизатору?
Варианты ответов:
1. Желательно оформлять ссылки в виде картинок
2. Её нельзя делать вручную
3. Нет никаких правил. Каждый проект уникальный
4. Она не должна быть хаотичной
Мой ответ: 3 ❌. Верный ответ по тесту: она не должна быть хаотичной.
Объяснения и официальные источники
Тут даже оправдываться не буду — ответила как seo-бомжа. Но каждый проект действительно уникален.
Да, есть база:
- делать текстовые ссылки в теге <a> на важные страницы
- использовать интуитивно понятные анкоры
- отдавать как можно больше веса важным страницам
- важные страницы должны находится не дальше 3 кликов от морды и т.д.
Вопрос №28: Обязательно ли корректно обрабатывать запрос поисковых роботов If-Modified-Since?
Варианты ответов:
1. Да, если на сайте большое количество страниц
2. Нет, не обязательно
3. Да, но только если контент часто меняется
4. Да
Мой ответ: 3✅❌. Верный ответ по тесту: не знаю.
Объяснения и официальные источники
В документации Google эта рекомендация лежит в разделе для крупняков. Яндекс в начальном разделе Справки напоминает, что дата должна быть корректной.
Но обработка этого заголовка НЕ обязательна для всех. Это актуально для крупных сайтов: контент часто меняется, есть большое количество страниц. Новостники, инфо-сайты, агрегаторы — это для них.
Важно при этом разделять понятия HTTP-заголовка Last-Modified и тега <lastmod> из sitemap.xml. Задачи у них схожие, но разные по механике. Простыми словами: HTTP-заголовок Last-Modified скажет, что страница не менялась с последнего захода работа — не трать, бюджет и уходи. А тег <lastmod> — это подсказка зайти и скачать новую версию страницы.
Порылась на своих и чужих сайтах: в Рунете не нашла даже на РИА Новости Last-Modified. Например, Вики и NYT этот заголовок отдают.
❔Признавайтесь, используете?
Вопрос №29: Тип сайта MFA — это
Варианты ответов:
1. Сайты, созданные для размещения и заработка на рекламе
2. Онлайн-сервисы для CEO-оптимизации
3. Сайты национального домена верхнего уровня для Сен-Мартена (территория Франции)
4. Мультифункциональные сайты, созданные для удобства поиска информации
Мой ответ: 3 ❌. Верный ответ: 1 — сайты, созданные для размещения и заработка на рекламе.
Объяснения
Я честно не знала. Теперь знаю. Ответила самое смешное.
MFA значит «made for adsense».
Вопрос №30: Самый большой внутренний PageRank будет иметь страница
Варианты ответов:
1. Для всех страниц сайта PageRank одинаковый
2. Главная страница сайта
3. Страница, на которую ссылается наибольшее количество внутренних ссылок
4. Первая проиндексированная страница
Мой ответ: 2 ✅❌. Верный ответ по тесту: 3 — страница, на которую ссылается наибольшее количество внутренних ссылок.
Объяснение и официальные источники
Я ответила неверно в теории. Классический PageRank определяется количеством и качеством ссылок на страницу. Каждой странице передаётся «вес / сок / PR» от всех документов, которые на нее ссылаются (с учётом их собственного веса).
Главная страница чаще имеет наивысший показатель PageRank. Для сайтов с нестандартной структурой, лидером по весу может быть любая другая страница (та, которой принадлежит бОльшее кол-во ссылок).
Формула базового PR 1998 года: PR(u)=N1−d+dv∈Bu∑L(v)PR(v)
* PR(u)PR(u)PR(u) – PageRank страницы u
* ddd – «дампинг-фактор» (обычно 0.85)
* NNN – общее число индексируемых страниц
* BuB_uBu – множество страниц, ссылающихся на u, L(v)L(v)L(v) – число исходящих ссылок со страницы v.
Ссылочно-графовый алгоритм PageRank подробно описан в патенте Google US6285999B1 «Method for node ranking in a linked database». О нем я писала выше.
В Google, кстати, частая история когда урл не заходит в индекс из-за недостаточного кол-ва внутренних ссылок. Например, делаете ЧПУ в фильтре магаза, оставляете на него только 1 внутреннюю ссылку с раздела.
Вопрос №31: Передает ли свой ссылочный вес ссылка в теге noindex?
Варианты ответов:
1. Да
2. Нет
Мой ответ: 2 ✅❌. Верный ответ по тесту вероятно: 1 — да.
Объяснения и официальные источники
Я ответила неверно с точки зрения устройства Google. Для полноты в тест стоит добавить дополнительные варианты, чтобы покрыть базу знаний по обеим ПС. Google будет передавать вес при meta name="robots" content="noindex,follow", Яндекс — нет.
Вопрос №32: Какие инструкции робот поисковой системы должен учесть в первую очередь?
Варианты ответов:
1. Инструкции в файле robots.txt
2. Инструкции в теге Meta Robots
3. X-Robots-Tag
Мой ответ: 1 ✅. Верный ответ по тесту: не знаю.
Объяснения и официальные источники
При заходе на сайт первое, что бот запрашивает – robots.txt. Если URL попадает под правило Disallow, бот никогда не скачает страницу, а значит не увидит ни заголовки, ни <meta>.
HTTP-заголовок X-Robots-Tag – второй этап – бот делает запрос документа и читает HTTP-заголовки ответа сервера. Он обрабатывает их до скана HTML, и может уже тут развернуться, если встретит например 304 ответ.
<meta name="robots"> – последнее, что увидит бот. Если он нашел в "robots"content="noindex, follow">, то локально воспользуется рекомендацией.
Заключение
Самое полезное, что можно делать, работая в SEO — думать. Опыт тоже решает. Я критично ошибалась в вопросах, которых никогда не касалась на практике. Залетайте ко мне в ТГ общаться и делиться опытом.
Цмок.