Про подбор сеошников в 2023 году

Обратились ко мне товарищи из DIGINETICA, что бы я помог им подобрать seo-специалиста. И я решил из этого сделать статью, которая поможет владельцам бизнеса / директорам по маркетингу / руководителям отделов иметь представление о рынке найма сеошников и, возможно, убережет от проблем.

Ну, поехали)

1 этапом мы составили текст вакансии. Тут все просто, посмотрели кучу вакансий по сео, объединили все в одно и убрали не адекватные требования. Вышло так:

Про подбор сеошников в 2023 году

2 этапом мне приходили резюме сеошников, я их отсеивал. Достойных кандидатов было очень мало. Вот основные типы:

  • Последние 20 лет был фрилансером. Очевидно им же и останется, будет уделять работе время чуть большее, чем еде
  • Был строителем, прорабом, таксистом, кладовщиком. Прошел курс и решил стать сеошником, поработав 1-5 месяцев помощником специалиста. Компетенции почти нулевые.
  • Был руководителем сео отдела, супер сеошником и в отклике присылает целую презентацию с кейсами. При этом претендуя на зарплату мидла. Обычно во время первичного интервью выясняется, что он планирует совмещать работу.
  • Бывший контекстолог, таргетолог, сеошник, таролог и иммунолог в одном. Умеет все и по чуть-чуть, то есть ничего конкретного.
  • Нормальный сеошник. Период работы у прошлых компаний - от 1 года, подробно расписано чем занимался и чего достиг, последние 3-5 лет работал чисто сеошником.

Ну и не секрет, что первые 4 типа отсеивались на этапе просмотра резюме.

3 этапом я составил Вопрос-Ответ для HR на первичную встречу (на которой я не присутствовал). Это были совершенно обычные вопросы и ответы, которые может каждый загуглить перед собеседованием.

Примеры:

Зачем нужен мета-тег Robots

Мета-тег Robots используется в отчетах HTML и XHTML, предоставляя структурированные метаданные о веб-странице. Мета-теги важны для внутреннего SEO.

Мета Robots используется роботами поисковых систем для понимания структуры страницы.

Что означает 301 редирект?

301 редирект - это постоянный способ перенаправления пользователей и поисковых роботов со старого URL на новый.

Какие существуют теги заголовков и в каких случаях их можно применять?

Теги заголовка варьируются от h1 до h6, где H1 обозначает самый большой, а H6 обозначает меньший заголовок.

H1 и H2 считаются наиболее эффективными для SEO.

Рекомендуется использовать второстепенные ключевые слова в тегах заголовков везде, где это кажется разумным и выполнимым.

Что такое robots.txt?

Файл robots.txt - это файл, содержащий инструкции для ботов, которые сообщают им, какие веб-страницы они могут и не могут открыть. Файлы robots.txt больше всего подходят для поисковых роботов.

И так далее.

4 этапом было составлено тестовое задание примерно вот такое:

  • Собрать семант по маркеру «ремонт ноутбуков», почистить, сделать кластеризацию для 10 самых высокотрафиковых страниц
  • Написать ТЗ на контент для любой из 10 страниц по п.1
  • Написать h1, h2, title и description для всех 10 страниц из п.1
  • Прислать список технических косяков сайта https://site.ru/ (используя краулер и «глаза»)

Проверить его очень просто.

  • Семант должен быть собран без мусора, никаких «своими руками», «в екатеринбурге», «руки из плеч» и тд. Ну и кластеризацию смотреть, что бы запросы в группе были адекватные.
  • ТЗ на контент обязательно должно содержать свод правил для копирайтеров (около одной страницы А4 минимум), должны быть посчитаны объемы блоков текстов, плотность ключевых слов и ОБЯЗАТЕЛЬНО LSI фразы
  • В мета тегах и заголовках смотрим, что бы не было везде одно и тоже под копирку
  • По тех аудиту ищем любой сайт в ТОП20-30 по любому ВЧ ключу, берем краулер Screaming Frog и просто запускаем. Кандидат должен найти косяков не меньше, чем найдет краулер.

На 5 этап уже приходил я сам, это 15-20 минутный опрос по узкоспециализированным вопросам и решениям, которые не очень просто нагуглить и тут очень хорошо видно опыт. Корректность ответа может оценить только сеошник уровня синиор или хэд. Ну или надо на каждый вопрос писать 2-3 абзаца вариаций ответов правильных, почти правильных и совсем не правильных.

Итак, список супер профи вопросов, которыми я мучил кандидатов:

Как найти контент который не индексируется

Способы закрыть контент от индексации

Что делать с дублями? Как закрывать и передавать веса?

Как отделить брендовый траф от небрендового?

Где искать связанные слова?

Как понять нужную плотность ключевых слов?

Как увеличить плотность ключевых слов на листинге, не писав Сео текст?

Как попасть в расширенные сниппеты гугл? А Яндекса?

Какую аналитику проведёте если 50 листингов растут, 10 стоят, а 15 падают?

Как оптимизировать товары? Что важно?

Что делать с паджинацией?

Как ускорить молодой сайт в гугле?

Что на сайте нужно ежемесячно проверять?

Что делать с товарами, которые не в наличии?

Что делать с листингами без товаров?

Ответы на этот список я, конечно, не дам в открытом доступе. Но если наберется достаточное количество желающих его получить, то пересилю себя, напишу и разошлю заинтересованным.

По итогу могу сказать, что из 70 поступивших ко мне резюме в конечном счете выбирали из 2 сеошников. Рынок, кажется, что большой и что сеошников тьма, а по факту реальных профессионалов очень и очень мало. Печально, досадно, но ладно. Опыт интересный, надеюсь и вам пригодится.

33
Начать дискуссию