Занимаюсь SEO и разработкой сайтов c 2011 года. Консультирую малый, средний и крупный бизнес в области практического SEO. Мой Телеграм: https://t.me/alexkrads
"Основа – это сильный бизнес, с хорошим LTV клиента, конкурентным предложением и качественным сервисом." - золотые слова!
Ключевой момент в том, что все эти конфиги именно помогут сделать доступным. Если вы переведете контент, настроите hreflang и другие параметры, то это не гарантирует ранжирование в каждой отдельно взятой стране или на каждом языке, для которых на сайте есть контент. Более того, при наличии конкуренции нужна комплексная работа по продвижению включая on-page оптимизацию и работу со ссылочным для каждой версии (есть исключения). То есть вот все эти рекомендации – это необходимый конфиг, который не является “серебряной пулей” для получения топов.
Что вы могли бы порекомендовать, чтобы отделить брендовый органический трафик при анализе своего сайта и конкурентов? Особенно из Google
Чисто теоретический вопрос:
Вы сами пробовали проверить уникальность текста сгенерированного нейросетью (ChatGPT и другими)? Оценивали количество заимствований?
По моему опыту AI вставляет неуникальный текст целыми абзацами. Проверку уникальности осуществляет по своему "наитию" и как итог получаем кучу заимствованных предложений а то и абзацев целиком.
Не только Яша сфокусирован на деньгах. Рекомендую прочитать https://www.wheresyoured.at/the-men-who-killed-google/ Если коротко, то в Google тоже стоит прибыль от рекламы как основной KPI из-за чего страдает качество органической выдачи.
Случай, который происходит постоянно. Приходит заказчик и говорит, что они начинают создавать/переделывать сайт и потребуется SEO. Объясняем, что хорошо бы до того, как что-то реализовали, провести аналитику (структура, конкуренты, базовые требования к шаблонам, рендеринг и т.п.). Далее, помимо очевидно позитивного, есть 3 негативных варианта развития событий:
1. Заказчик отмалчивается до того момента пока не будет доделан новый сайт.
2. Отвечает, что дизайнер уже сделал макеты, они уже утверждены. То есть уже поздно что-то менять (почему на готовом сайте менять ок – не известно).
3. Говорит, что сроки сдачи проекта были позавчера, поэтому сейчас менять что-либо не готовы, т.к. сроки.
Итог:
На этапе разработки не было бы необходимости что-то переделывать;
На готовом сайте – дополнительный бюджет, время + потеря или недополучение потенциального трафика.
“Продвижение в поисковых системах без оптимизации занимает большой промежуток времени и часто растягивается на годы…” – По опыту работы скажу, что без SEO аналитики, без проработки контента и технички, создания структуры и работы над закрытием интентов запросов на посадочных страницах продвижение не растягивается на годы, а часто вообще оказывается невозможным из-за наличия комплекса проблем. Либо сайт обладает видимостью по какому-то узкому набору разделов/категорий, но при этом не ранжируется по другим. Поэтому SEO в идеале нужно начинать заниматься на нулевом этапе, когда только создается ТЗ на разработку сайта.
Еще от себя добавлю, что есть такая вещь, как многоканальные последовательности. Очень грубо говоря, чем больше мест присутствия ЦА охватывается, тем выше конверсия. Связано это с тем, что во ряде случаев (не во всех) люди не принимаю решение мгновенно. Требуется сделать несколько «касаний» и часто через разные источники трафика: SEO, SMM, ретаргетинг, отзывы, контент маркетинг, медийка. Исключая или добавляя SEO в этот список – снижаем или, соответственно повышаем итоговый CR.
Сергей, спасибо!
Подскажите, каким образом обычно определяется средняя стоимость ссылки/гест-поста в тематике? Связываетесь напрямую с вебмастерами/владельцами площадок и запрашиваете стоимость или используете иной метод?
По первому пункту, думаю, будет опять замах на рубль, а удар на копейку.
Грозные утверждения по поводу того, что будет наказываться даже сочетание генережки и ручного труда, на мой взгляд, является вообще сомнительным утверждением со стороны Гугла. Что считать такой комбинацией? Если AI набросал структуру контента, а человек написал, то это тоже попадает под их критерии спама? Думаю нет. Если был сгенерирован текст и основательно дописан/переработан – скорее всего тоже нет.
Вообще интересует алгоритмическая реализация такого процесса, поскольку он должен быть не только эффективным, но и не сильно ресурсозатратным. Вероятно будет что-то типа дообученного BERT на генеренных текстах. Если так, то с точки зрения ресурсов будет иметь смысл использовать его, условно, в рамках топ 10–30 как надстройку для уточнения весов уже первично отранжированных результатах. Опять же, слабо представляется датасет, который мог использоваться для обучения модели с целью детектирования текстов, созданных по гибридному методу (человек+AI) с существенной переработкой текста.