Чтобы новая страница быстро вошла в топ поисковых систем и надолго там «закрепилась», ее нужно правильно оформить (для пользователя) оптимизировать (для поисковых систем). Это не новость для многих SEO-специалистов и руководителей, но некоторые пренебрегают либо первым, либо вторым пунктом.
Подбор запросов по конкурентам методом ручного изучения Title, H1 и description - так себе идея.
Во-первых сама гипотеза, что заголовки с мета-тегами состоят у конкурентов из конкретных поисковых запросов (даже у топовых конкурентов) - в корне не верна. Во-вторых использование демо-отчётов платных инструментов (таких как Serpstat, keys.so, spywords и т.д.) даст в разы больше ключей.
Сам подход к формированию семантического ядра плох тем, что один и тот же запрос может соответствовать разным кластерам (дублироваться в рамках всего СЯ). Попробуйте взять проект в KeyCollector целиком и, используя галочку "не добавлять фразу, если она есть в любой другой группе" собрать эти запросы.
Кстати там же можно и wordstat по маскам в виде ВЧ-запросов спарсить, а не переносить запросы вручную.
Снять точную частотность (можно, кстати, ещё и с учётом порядка слов "[!QUERY]") - можно там же, настроив значение для QUERY в настройках программы.
Любой запрос, включающий в себя топоним (в вашем случае Уфа) будет определяться любым сервисом как геонезависимый. А степень коммерциализации - можно не определять, если использовать кластеризацию запросов по ТОПу. Кстати сам по себе показатель коммерциализации слабо коррелирует с вероятностью попадания в ТОП по коммерческому запросу.
Что касается контента для страницы - также существуют автоматические инструменты (текстовые анализаторы), которые позволяют не изучать вхождения ключевых слов вручную. А LSI в Яндекс не используется.
Автоматизируйте рутину и высокого вам трафика и конверсий! :)
checkplease.ru - вот о каком сервисе идет речь. И на сегодняшний день, к моему сожалению, моих знаний не хватает, что очень жаль. ( хотя с другой стороны, текущая ситуация, заставляет изучать новое для себя).