Горе-SEO-шник, Яндекс и детекторы ИИ (басня)
Жил-был Человек. Умный, толковый, а главное — с идеей. Захотел он создать полезный сервис, который решал бы проблему одной из его субличностей, облегчал жизнь другим подобным товарищам и нес в мир добро. На волне оптимизма сделал сайт, помимо сервиса, выложил на него отличные, как ему казалось, по содержание инфостатьи. Уникальные по Text.ru, по Главреду чистые и читаемые на 8 и выше. Да, без новизны, но все в них было по делу, с логикой и пользой. Опубликовал — и стал ждать.
Суровый Яндекс не впечатлился. Мало того, что не проиндексировал статейки, так ещё и фильтр МПК на всё повесил. «Как же так? И что же теперь делать?» — озадаченно-расстроено подумал Человек.
Оптимизм поутих. И субличность-программист тут же зарылась в новые для себя SEO-шные дебри, что надо было сделать изначально. В результате выяснилось, что тексты текстами и польза пользой, а SEO никто не отменял: на сайте никакой оптимизации не было, как не было и функционала для этого. Посидела несколько дней субличность-программист, потрудилась, нашла об кого подумать (в процессе родилась эта статья) и стало на сайте всё по канонам: titles, descriptions, микроразметка, картинки с alt’ами. Ну, просто божественная обертка для SEO-конфеток!
Субличность-копирайтер при этом схватилась за голову: «А может все дело собственно в «конфетках»? Сами тексты, наверное, *овно! Вот и не индексируются!»
Появилась догадка: а вдруг всему виной ИИ? Статьи-то писались не вручную, а с помощью нейросетей. Может, Яндекс увидел в них машинный стиль и забанил? Надо было это тоже исправить!
В бой за сайт вступили детекторы ИИ, и с ними Человек столкнулся впервые. Для надежности использовал три:
- GigaCheck от Сбера,
- Copyleaks — «самый точный детектор ИИ по исследованиям третьих лиц»,
- ИИ-детектор от Text-Craft.
Если первый просто предполагает, создан текст человеком или ИИ, то другие два дают цифры, а насколько ими обоими он написан, то есть дают процент «человечности».
И тут начались интересности...
GigaCheck в большинстве случаев правильно определял человек или ИИ, да или нет.
«Самый точный детектор» уверенно определял откровенную ИИ-шную безэмоциональную писанину. Но когда текст немного дорабатывался (Человек прокачался в промт-инжиниринге), то в показаниях уже путался. То куски, написанные ИИ, выдавал за человеческие, то наоборот, что было обиднее. Более того, порой было ощущение, что он просто брал и резал текст примерно пополам: верхнюю часть сплошняком определял человеческой, нижнюю — машинной. Реже наоборот. И никакой логики в этом не было.
Text-Craft оказался точнее и давал более адекватные результаты, как минимум подчеркивал машинописные участки более-менее точно и точечно.
Но самое неожиданное открытие случилось, когда во время проверки текста из него убрали списки. Не содержание пунктов, а именно их оформление: нумерацию или маркировку. И вуаля! Copyleaks вдруг начал на ходу «переобуваться»: есть оформленные списки в тексте — текст написан на 100% ИИ, убираем оформление — текст становится написанным человеком. Иногда для «переобувания» достаточно было просто добавить переносы на новую строку между абзацами.
Так как с Текст-Крафтом такое не прокатывало, Человек принял решение опираться в работе на него. Если в нем все было окей, в остальных тоже.
И заодно провел эксперимент: сгенерировал текст с помощью ИИ и проверил на трех вышеуказанных детекторах.
И в тот момент Человек задумался: «Насколько же вообще можно доверять этим детекторам? Как мы можем на них опираться, если они дают такие странные результаты и если ими так легко можно манипулировать? И как вообще понять, какая «человечность» нужна (если нужна) Яндексу и каким детектором ИИ он будет (если будет) ее проверять?» Вопросы без ответов…
Но если вернуться к басне, то после настройки SEO и переработки статей в более «человечные» (но до добавления на сайт картинок!), Яндекс переобошел странички, проиндексировал их и снял с большинства статей фильтр МПК. Человек облегченно выдохнул — можно работать дальше.
А мораль у басни такова: Учите всё-таки SEO-матчасть, осваивайте промт-инжиниринг — и будет вам счастье!
Сейчас многие в погоне за клиентами стараются размещаться на всех площадках подряд, в том числе и на Авито. Люди тратят деньги на продвижение, но могут не получить ожидаемых результатов. В этой статье разберемся, какие ниши товаров и услуг точно востребованы на Авито.
Сегодня SEO — это не просто работа с ключами и ссылками. Поведенческие факторы (ПФ) стали ключевыми для продвижения сайтов в выдаче Яндекса. Чем лучше ведут себя пользователи на сайте — тем выше он поднимается. Но можно ли искусственно улучшить ПФ? Мы решили проверить это на реальном проекте.
Продвижение сайтов становится все сложнее. Алгоритмы поисковых систем, будь то Яндекс или Google, становятся умнее, конкуренция растет, а органический трафик – золотая жила, за которую сражаются компании. Кто-то идет классическим путем: улучшает качество контента, наращивает ссылочную массу, работает с юзабилити. А кто-то... использует накрутку пов…
Сегодня SEO-оптимизация – это не просто покупка ссылок и наполнение сайта ключевыми словами. Поисковая система Яндекс все активнее учитывает поведенческие факторы (ПФ). Если пользователи заходят на сайт, проводят там много времени, переходят между страницами – поисковик воспринимает этот ресурс как полезный. Если же люди уходят через несколько секу…
Но что, если сайт конкурентов уже давно в топе, а у вас – новый проект? Остается два варианта: долго и упорно работать над естественным улучшением ПФ или… ускорить процесс. Сегодня расскажу, как один геодезический сайт буквально за пару месяцев ворвался в ТОП-3 по конкурентным запросам с помощью накрутки ПФ.
В продвижении сайтов поведенческие факторы (ПФ) – один из ключевых элементов ранжирования в поисковых системах. Алгоритмы Яндекса учитывают время на сайте, глубину просмотра, показатель отказов и другие метрики, определяя, насколько ресурс полезен для пользователей. Чем лучше эти показатели, тем выше позиции в поисковой выдаче.
Хотите, чтобы ваш сайт по юридическим услугам взлетел в топ поисковой выдачи? Реальность такова: в нише адвокатских услуг часто применяют накрутку поведенческих факторов (ПФ). Этот кейс покажет, как это работает, какие методы используют
Думаешь, что SEO — это сложно? Давай разберемся!
Большинству компаний сложно регулярно публиковать длинные статьи. Блоги привлекают трафик и улучшают SEO, но написание таких материалов занимает чересчур много времени. Директор маркетингового агентства PullingOffStrategies рассказал, как его сотрудники решают задачу с помощью ИИ, и при этом тексты сохраняют живой человеческий стиль.
Непонятно, откуда взялась корреляция между МПК и генерёнкой.
Я использую генеренку давно и плотно, надёжно заходит в топ-3-5, если нет других проблем.
Разумеется, речь не о статьях, и каждый текст собран из контента, соответствующего заданной суб-теме и пользовательскому интенту. Никакой копирайтер не сравнится с хорошей LLM в плане релевантности, если на вход дан хороший промпт.
Недавно наткнулась на новостной сайт, где все публикации сгенерированы ИИ. И ничего, никто его не банит, фильтры не накладывает.
Поэтому конечно между МПК и генеренкой прямую связь устанавливать нельзя. Но может у Яндекса к инфостатьям другие требования, я не знаю. Поэтому делала то, что делала.
А может и нет ее, этой корреляции, в статье нет такого заключения. Когда увидела, что повешен фильтр, наступила паника, так как было непонятно, а что, собственно, делать дальше. Люди из-за этого сайты задешево продают, так как не могут из-под него выбраться.
Поэтому после стадии "и так сойдёт, уже хочу просто опубликовать" наступила стадия более глубокого погружения и попытки исправить все, что может быть не так.
Немного разобралась с SEO, добавила чего не хватало. Обратила внимание на тексты. В правилах Яндекса есть такое, что МПК может быть наложен за откровенные нейротексты, хз, может он их такими посчитал. Поэтому с помощью тех же нейросетей довела тексты до "человечных" (честно, они реально стали более читабельными), то есть научилась делать более качественные промты.
И вот все эти действия дали результат. Да, может быть это правильная настройка SEO отработала, а не тексты, но я описала свой кейс и то, с чем столкнулась, что делала и к чему это привело.
Интересный эксперимент с детекторами! Получается, что некоторые из них больше реагируют на форматирование, чем на сам стиль текста. Честно говоря, кажется, что ИИ-детекторы – это полная ерунда. Может, Яндексу уже пора перестать обращать внимание на сгенерированные тексты? Кажется, я где-то читал, что Google уже не штрафует за них. Так ли это?
Да, Google не штрафует и четко высказался по этому поводу: "Our focus (is) on the quality of content, rather than how content is produced". Качество важнее способа генерации.
эксперимент с детекторами..., а главное зачем?
Да, ИИ детекторам на сто процентов доверия нет, они подходят для довольно грубой оценки "авторства"