Копирайтинг 2025: когда детекторы ИИ учат прятать GPT‑5.1

В этом материале продолжаю серию про реальные тренды копирайтинга 2025 года. В первой статье разбирал, как ИИ меняет профессию копирайтера и кого на самом деле «вытесняет» рынок — спойлер: не тех, кто учится работать с инструментами, а тех, кто застрял в прошлом. Во второй — смотрел на ИИ‑детекторы как на отдельный бизнес страха и формальных проверок, которые чаще бьют по авторам, чем по откровенно слабому контенту.

Рассылка Originality.ai, с которой всё началось: в одном письме — и тревожные цифры, и ссылки на исследования, и промо нового сервиса по «очеловечиванию» ИИ‑текстов.
Рассылка Originality.ai, с которой всё началось: в одном письме — и тревожные цифры, и ссылки на исследования, и промо нового сервиса по «очеловечиванию» ИИ‑текстов.

Толчком к этому продолжению стала свежая рассылка от сервиса Originality.ai: в ней компания одновременно хвастается высокой точностью детектирования GPT‑5.1 и рекламирует новый инструмент, помогающий сделать ИИ‑тексты «максимально похожими на человеческие». Ниже разберём, как из одного письма вырастает целый учебник по тому, как устроена индустрия подозрительности вокруг ИИ‑контента — и почему авторам важно понимать, что именно им продают под видом заботы о «чистоте текста»

«Мы ловим GPT‑5.1»: когда релиз модели превращается в рекламную кампанию

OpenAI выкатывает GPT‑5.1, а через пару дней Originality.ai выходит с громким исследованием: «мы по‑прежнему уверенно ловим даже эту модель, точность до 96–98%». Казалось бы, обычный апдейт сервиса проверки. Но если внимательно прочитать рассылку и посмотреть на новые функции, становится видно: тот же сервис, который продаёт «борьбу с ИИ‑контентом», теперь заодно продаёт и обучение тому, как этот контент от детектора спрятать.

Главный месседж исследования Originality.ai прост: не переживайте, даже новый GPT‑5.1 мы всё ещё детектируем. На графиках — аккуратные 96% для Academic и Lite и 98% для Turbo, плюс формулировка о «высокой точности на всех режимах». Отдельным пунктом подчёркивается, что детектор якобы не обучался на данных GPT‑5.1, но прекрасно реагирует на свежую модель — выглядит как идеальная демонстрация мощности алгоритма.

Главный экран исследования Originality.ai: обещание «ловить» GPT‑5.1 с точностью до 96–98% и заодно повод запустить новый виток маркетинга детекторов.
Главный экран исследования Originality.ai: обещание «ловить» GPT‑5.1 с точностью до 96–98% и заодно повод запустить новый виток маркетинга детекторов.

Каждый крупный релиз OpenAI таким образом становится триггером для нового маркетингового цикла детекторов:

  • выходит модель;
  • выходит исследование, которое показывает, что «хаоса не будет, детекторы всё держат под контролем»;
  • вместе с исследованием — лендинги, тарифы и обещания «почти стопроцентной точности».

И так продолжается из раза в раз: новая модель — новое “успокаивающее” исследование и свежий виток продаж детекторов, у которых этот цикл в принципе не имеет конца.

11,5% «праздничных» отзывов и размывание доверия

В том же письме Originality.ai делится другим открытием: по их данным, 11,5% отзывов о праздничных покупках на крупных маркетплейсах «скорее всего написаны ИИ». В исследовании анализируются почти 900 отзывов с Amazon, BestBuy, Walmart и других площадок, а «подозрительными» считаются те, где вероятность генерации ИИ превышает 50%.

Тут Originality.ai уже считает проценты: по их данным, каждый девятый праздничный отзыв на маркетплейсах «вероятно» написан ИИ.
Тут Originality.ai уже считает проценты: по их данным, каждый девятый праздничный отзыв на маркетплейсах «вероятно» написан ИИ.

Для покупателя звучит тревожно: каждый десятый отзыв под новогодними подарками может оказаться не опытом реального человека, а аккуратной маркетинговой заготовкой. Одновременно у продавцов появляется ещё один инструмент для манипуляций: можно нагенерировать отзывы с помощью любой модели, прогнать через сервис, переписать до тех пор, пока вероятность ИИ не упадёт — и вуаля, перед нами уже «честное мнение клиента».

При этом детектор не различает мотивов и контекста. Для модели одинаково выглядят:

  • отзыв реального покупателя, который просто пишет грамотно и структурированно;
  • отзыв, который продавец собрал из подсказок нейросети и чуть‑чуть отредактировал вручную.

Один и тот же сервис и ловит, и прячет ИИ‑тексты

Самое интересное — в конце рассылки. После блоков про «детектируемый GPT‑5.1» и «подозрительные отзывы» Originality.ai предлагает новую функцию Deep Scan. Формально это «искусственный интеллект‑репетитор по письму», который:

  • подсвечивает фрагменты, помеченные детектором как ИИ‑текст;
  • даёт «практические советы», как переписать их так, чтобы текст «воспринимался как написанный человеком».
Deep Scan в роли «репетитора по маскировке»: тот же сервис подсказывает, как переписать ИИ‑фрагменты так, чтобы детектор посчитал их «человеческими.
Deep Scan в роли «репетитора по маскировке»: тот же сервис подсказывает, как переписать ИИ‑фрагменты так, чтобы детектор посчитал их «человеческими.

То есть сценарий для пользователя выглядит примерно так:

  1. Загружаем текст в детектор, получаем красные зоны «LIKELY AI».
  2. Включаем Deep Scan и по шагам «очеловечиваем» формулировки.
  3. Прогоняем результат через тот же детектор — и вероятность ИИ волшебным образом падает.

Фактически сервис продаёт полный цикл:

  • сначала монетизирует тревогу (подписка на проверки, лимиты по словам, корпоративные тарифы);
  • затем монетизирует желание эту тревогу обойти (дополнительные функции, обучение «человеческому стилю», платный доступ к расширенному анализу).
Тот самый момент, где сервис честно обещает научить ваш ИИ‑текст «звучать как человеческий» и уверяет, что после правок его уже сочтут работой живого автора.
Тот самый момент, где сервис честно обещает научить ваш ИИ‑текст «звучать как человеческий» и уверяет, что после правок его уже сочтут работой живого автора.

Академическая версия: новая версия «обрядовой чистоты»

Отдельная линия — «академическая модель» Originality.ai, которая позиционируется как решение для вузов и школ. В промо‑материалах говорится, что она должна помогать поддерживать честность в обучении, предотвращать списывание и сохранять «аутентичность» студенческих работ.

Тот же сервис продаёт вузам и школам цифровой «обряд на чистоту текста» под видом заботы об академической честности.
Тот же сервис продаёт вузам и школам цифровой «обряд на чистоту текста» под видом заботы об академической честности.

На практике получается цифровой аналог обряда на «чистоту текста»:

  • работа считается надёжной не тогда, когда студент разобрался в теме, а когда отчёт детектора показывает приемлемый процент;
  • преподаватели всё чаще опираются на цветовую разметку алгоритма, а не на содержательный анализ аргументации и структуры.

При этом те же сервисы тут же предлагают советы, как переписать текст, чтобы он выглядел более «человеческим» и проходил проверку — то есть опять продают и строгий фильтр, и инструкцию по его обходу.

Что это значит для копирайтинга и рынка отзывов

Для копирайтеров, редакторов и владельцев бизнеса всё это оборачивается несколькими неприятными тенденциями.

Во‑первых, смещение фокуса с качества на проценты. Хороший текст оценивается не по тому, помогает ли он читателю принять взвешенное решение, а по тому, что показывает отчёт детектора — причём алгоритмы не умеют измерять ни пользу, ни честность, ни прозрачность оффера.

Во‑вторых, давление на профессиональный стиль. Парадоксально, но структурированные, точные, технически выверенные тексты чаще попадают под подозрение, чем лёгкие, разговорные и ироничные, это я уже демонстрировал в прошлой статье на примере российских детекторов. Чтобы «понравиться» ИИ‑проверке, автору иногда приходится сознательно ломать структуру и усложнять язык.

В‑третьих, размывание доверия к пользовательскому опыту. Если под одним и тем же ярлыком “вероятный ИИ” оказываются и нормальные пользовательские материалы, и откровенно искусственно накрученный контент, покупатель начинает воспринимать всю систему оценок как подозрительную, а в выигрыше остаются только платформы, которые продают проверку и “очищение” результатов.

Вместо гонки с детекторами — прозрачные правила игры

Кейс с GPT‑5.1 и Originality.ai хорошо показывает, во что постепенно превращается рынок ИИ‑детекторов. Это уже не про защиту от фейков и плагиата, а про новую «индустрию подозрительности», где один и тот же сервис:

  • сначала объясняет, что без проверки нельзя доверять ни одному тексту;
  • потом продаёт подписку на детектор;
  • затем продаёт инструменты и курсы, которые помогают сделать текст «достаточно человеческим», чтобы этот детектор его пропустил.

В таких условиях для авторов и заказчиков разумнее договариваться не о процентах «AI‑likelihood», а о прозрачном использовании инструментов: где именно ИИ помог с черновиком, где правки делал человек и за что в итоге отвечает автор. Не детектор определяет ценность текста — её по‑прежнему определяет здравый смысл, качество идеи и честная коммуникация с читателем.

Лично я принципиально не работаю с заказчиками, которые в ТЗ вместо внятных задач выкатывают список «обязательных процентов» по Originality.ai, «Тургеневу», Istio.com и прочим детекторам и всем коллегам советую делать так же. Опыт показывает: чем больше в ТЗ магических цифр из сервисов, тем выше шанс, что перед вами не партнёр, а человек, который просто ищет удобный повод не заплатить за уже сделанную работу.

Мнение автора
1
1 комментарий