Это выводы из исследования “Inverse Scaling in Test-Time Compute”. Учёные изучили, что случается с большими языковыми моделями (как ChatGPT, Claude и др.), если заставлять их рассуждать дольше (давать больше времени/вычислительных ресурсов на размышления при ответе). Раскажу, как пришли к такому выводу и главное – что это практически значит для нас…