Разработчик выпустил плагин, который позволяет нейросети «говорить не как ИИ» — он обучил его на статье из «Википедии» о признаках сгенерированного текста

Писали её наверняка не для этого.

  • Плагин, который выпустил технический инженер по имени Чэнь Сыци, работает с ИИ-помощником Claude Code от Anthropic и даёт ему указание писать не как ИИ-модель. Об этом пишет ArsTechnica.
Инструкция для Claude Code. Скриншот vc.ru
Инструкция для Claude Code. Скриншот vc.ru
  • Плагин даёт Claude Code список инструкций, которым ему нужно следовать, — он должен «прочесть» статью в «Википедии» о признаках сгенерированного текста и избегать описанных в ней примеров. Работать над статьёй редакторы начали в конце 2023 года, а выпустили её в августе 2025-го.
  • «Очень удобно, что у “Википедии“ есть список признаков сгенерированного текста — настолько удобно, что можно попросить нейросеть избегать их», — отметил Чэнь.
  • ArsTechnica опробовала плагин и отметила: он делает текст непринуждённее. При этом издание отмечает — в тексте, написанном человеком, нет ничего уникального, что могло бы надёжно отличить его от сгенерированного. А люди могут писать как чат-боты, в том числе используя длинное тире. И даже в статье про признаки ИИ-текста могут быть признаки генерации — несмотря на то, что писали её профессиональные авторы.
32
11
5
2
2
1
121 комментарий