Когда крупные языковые модели (вроде GPT или Claude) обучаются на текстах, созданных другими нейросетями, они начинают терять качество. Это не гипотеза и не случайность — а эффект, который уже можно наблюдать в реальных экспериментах. Недавняя работа исследователей из Кембриджа, Оксфорда и Майкрософта подробно описывает, как именно это происходит и…