Одно удовольствие читать! Спасибо
"Ai контент" пока не преследуется напрямую. Качество, релевантность и контекстуальность информации куда важнее. Генеративные ИИ - это инструмент для information extraction. Поэтому промптинг исключительно важен и играет ключевую роль для качественного извлечения информации. Без понимания лексики и семантики практически невозможно создать релевантный SEO контент.
Релевантность определяется и модальностью текста, и вокабуляром, и лаконичностью, и тем, насколько он удовлетворяет намерение пользователя и click satisfaction в полной мере.
В кратце, нужно уметь правильно задавать вопросы и понимать концепции видовых и родовых понятий. Нужно уметь предсказывать, какие вопросы могут возникнуть у пользователя при чтении ваших статей и внедрять эти определения и концепты в дискурс.
Нужно также понимать, что такое понятия (концепты) и их признаки (атрибуты) - все для наиболее полноценного раскрытия тех или иных тем.
Тогда вопрос о создании контента с помощью генеративных моделей станет намного яснее.
Добавлю, что любой "ai контент" нуждается в ручном редактировании для удаления не контекстуальных слов и интеграции дискурса.
Это цифры, я про практику. Россия большая, я говорю о крупных городах. Там скорость выше чем в любом городе США - это факт.
Согласен с большей частью рекомендаций, спасибо за статью.
Однако, вынужден прибегнуть к критике касательно внешних ссылок.
Внешние ссылки передают релевантность источникам, на которые вы ссылаетесь. В то время, как упоминание авторитетных (с точки зрения поисковой системы) источников может повысить релевантность документа, особенно в YMYL нишах, оно также может передать релевантность конкурентным источникам.
Если источник, на который ссылаетесь вы, содержит внешние ссылки на ваших конкурентов, то конкуренты получат релевантность и авторитетность.
Да, вы поможете поисковику улучшить семантические связи, но в то же время можете случайным образом повысить ранг других сайтов, с которыми конкурируете.
Выход — цитирование или ссылание на источник / конкретное исследование с упоминанием имен авторов и самого источника без прямой ссылки, в контексте вашей декларации. Алгоритмы статистически способны понять и связать такие связи без прямых ссылок на конкретные сайты и статьи.
Также добавлю, что вместо внешних ссылок можно просто напросто включить информацию, на которую вы собираетесь сослаться, в ваш источник в той или иной статье. Создание дополнительного документа для раскрытия такой информации будет полезнее при условии, что информация хорошо структурирована; на нее и стоит сослаться в виде внутренней ссылки.
В остальном статья прекрасная!
К сожалению, для исключительно информационных сайтов, вэб-источники, имеющие коммерческий смысл, будут в подавляющем большинстве случаев иметь преимущество.
Наличие индикации реального бизнеса, а также функционал, будут положительно сказываться на ранжировании и повышать релевантность.
Но это не приговор, и есть решения.
Крайне редкий юзкейс, крайне мизерных масштабов в рамках жизни популяции любой страны.
Был на концертах - никогда не испытывал проблем со связью.
Живя в Калифорнии скажу, что здесь скорость 5G и LTE не отличаются; кратно ниже, чем в крупных городах России.
Вопрос - зачем операторам вышки 5G с гигантским энергопотреблением, на порядок меньшей площадью покрытия, соответственно требующей кратно большего количества оборудования при сопоставимой скорости?
Благодарю
Давайте уже поговорим, рассмотрим и обсудим?!
Да, я упомянул, что в будущем буду писать о важности наличия функционала вроде калькуляторов, генераторов, даже форм для заявок и других приемов, которые доказанно увеличивают трафик.
На сегодняшний день не имею возможности опубликовать собственные кейсы касательно этих аспетов. Когда я говорю доказанно, подразумеваю, что процентное соотношение коммерческих и сайтов с каким любо функционалом помимо статей занимает подавляющее большинство SERPs, что само по себе доказывает многое из данной статьи.
Как бы обширно сайт со статьями о кредитных картах не охватывал тему кредиток, агрегаторы и каталоги будут априори ранжироваться выше, т.к. способны с большей вероятностью «удовлетворять клики.»
Спасибо! Да, стоит перезалить
Как именно ИИ может анализировать поведение пользователя?
Поведение пользователя в контексте SEO означает search behavior, то есть нужны конкретные метрики.
Прошу прощения, но статья очень общая, не несущая пользы ни для начинающего, ни для эксперта.
Похоже на статью, сгенерированную с помощью ИИ...
"Почему в Google Search Console много показов и мало кликов?"
Это положительный знак.
Это означает, что алгоритмы начали тестировать твой сайт в показах в различных индексах. Нужно ничего не менять, и продолжать выгружать контент.
Согласен, все очень поверхностно.
Насчет промптов — когда только вышел жпт 4, я помню, какие можно было развернутые и мощные ответы получить. Сегодняшний жпт не сравнится, честно. И я говорю про англ язык, хотя на русском ответы тоже выдавались мощные.
Одна из главных причин — жесткая цензура. Создатели ЛЛМок и их хозяева (спецслужбы втч) сильно озабочены концепцией multiplication of user’s choices. Это подразумевает создание инструкций по изготовлению запрещенных элементов, оружия и прочее.. Под эти предлогом жпт также стал очень woke. Под ту же гребенку попала и другая информация, связанная с любыми техническими задачами. Проще было создать параметры, которые делают жпт «туповатым» по всем предметам, ежели вручную ужимать его «способности» создавать опасный контент.
Отсюда и ощущения бесполезности контента. Они семантически создали такие параметры, которые не дают даже с помощью изощренных промптов создавать что-то годное.
Я думаю, языковые модели в самом деле намного «умнее», чем версии, доступные пользователям.
Несколько мыслей лично у меня:
1. Чатжпт пишет то, о чем ты хочешь услышать. Буквально старается предсказать следующие слова после твоего промпта. Тяжело получить адекватный ответ, основанный на причинно-следственных связях.
2. Если говорить о генерации статей, то семантически он плох. Статья должна содержать уникальную информацию, в то же время не противоречащую knowledge graph. Если генерировать целиком (допустим, 2000 слов), то библиотека трансформеров не позволит удержать достаточное количество контекстуальных векторов и перспектив, создавая при этом качественный дискурс.
3. Google определяет экспертность частично за счет наличия уникальных n-gram в тексте. Только человек-эксперт может их генерировать (например, при редактировании или написании текстов).
Другое дело генерировать несколько параграфов для отдельных подзаголовков (достаточно узкий контекст). Здесь чатжпт может помочь, но опять же, не избежать редактирования, чтобы параграфы раскрывали суть Н1…
С чатом гпт нужно быть аккуратно. LLMки оставляют statistical signatures, которые нужно видеть и убирать. Также есть проблема использования не контекстуальных слов, о чем, кстати, говорится в вашей статье - впихивание ненужного мусора при любительском промптинге.
Нужно добавить, что не целевые страницы должны качественно (контекстно) и количественно (чем больше ссылок на странице, тем меньше их вес) ссылаться на основные страницы и передавать туда вес.
Мало кто об этом говорит. Если контента нет, нет и трафика. Если нет коммерческого назначения, но есть контент — тоже плохо. Нишевые блоги обладают огромным количесвтом контента, но поисковик не может доверять таким источникам. Сайты, имеющие фнкционал (как платный, так и бесплатный), ранжируются гораздо лучше, но часто забивают на качество и количество контента, что делает их менее релевантными.
Programmatic SEO было ошибкой. Каждый калькулятор должен иметь одну страницу удовлетворять запросы функционально. Индексация вашего сайта это невероятно дорогое удовольствие в силу необходимости проверять каждую страницу на достоверность и совместимость с консенсусом базы знаний Google, поэтому + вероятно за счет Ai контента (пусть и гуманизированного), ваш сайт числится, как спам. Ai контент обнаруживается за счет статистических "подписей", которые присущи всем LLM.
Вы можете сказать, что есть похожие сайты с похожей структурой, и это правда. Но если вы проанализируете самые топовые по трафику страниццы таких сайтов, вы увидите, что они именно функциональные, которые решают сложные функциональные задачи по расчету времени и дат с привязкой к локации и часового пояса пользователя, поэтому эти сайты имеют репутацию и авторитетность ранжироваться по запросам с меньшими объемами, создавая отдельные страницы под отдельные запросы.
Чем меньше страниц способны охватить наибольшее количество пользователей и запросов, тем лучше. Читайте информацию о "cost of information retrieval".
Иными словами, ваш сайт с точки зрения Google не эффективный, также он триггерит алгоритмы обнаружения спама, особенно после core update 5 мая 2024.