Как люди и алгоритмы определяют, что текст написан нейросетью.

Копирайтер жил, жив и будет жить. Щас вы скажете: «О-о-о! Лукашов, ты что, луддит, что ли?» Нет-с. Я вовсе не противостою технологиям. Щас я вам объясню, почему именно сейчас надо писать ру-ка-ми.

Все вы, конечно же, умеете определять человеческий текст от машинного. Но ещё круче это умеют делать алгоритмы. Но сначала надо определиться со смыслом: зачем люди делают текст при помощи нейронок.

Для SEO — но алгоритмы быстро понимают, что к чему, и эффект скорее отрицательный. Для соцсетей — но и тут пользователи и алгоритмы тоже понимают, что к чему, и результат снова отрицательный. Для образовательного контента и каналов — но снова результат тот же.

Как это всё определяется и почему мы видим разницу:

  1. Нейросеть обучена на английском языке — просто в силу того, что контента на нём тупо больше. Она использует фразы, свойственные английским колумнистам, и родную английскому языку модель SVO (Subject — Verb — Object). Русский язык очень гибкий, и для него такие жёсткие рамки противоестественны.
  2. LLM — это статистическая модель, и в силу своей природы, того самого «Т9 на стероидах», она выдаёт только слово, которое с наибольшей вероятностью следует за написанным. Это смотрится неестественно.
  3. Даже самые простые детекторы видят текст самых навороченных моделей не как мы. Они замечают частоты символов, токенизацию и структуру синтаксических паттернов, которые остаются машинными даже при полной стилизации. Этот пункт тесно связан с предыдущим, ведь любой текст GPT-семейства проходит через один и тот же механизм: алгоритм выбирает токены с соответствующей вероятностью. Но если человек это чувствует, то машина это знает.

И многие сейчас почувствовали, какие преимущества даёт контент. Но это был синтетический наркотик. Теперь должно прийти отрезвление. Скупой заплатит дважды. Позиции упадут, бизнес начнёт страдать, и потребуется долгое и болезненное лечение.

Обращайтесь к хорошим копирам за хорошими текстами.

Начать дискуссию