Долго думать вредно. Даже умным языковым моделям

Это выводы из исследования “Inverse Scaling in Test-Time Compute”. Учёные изучили, что случается с большими языковыми моделями (как ChatGPT, Claude и др.), если заставлять их рассуждать дольше (давать больше времени/вычислительных ресурсов на размышления при ответе). Раскажу, как пришли к такому выводу и главное – что это практически значит для нас, пользователей.

🔥 Еще больше интересного в моем канале Продуктовые штучки

Главный вывод?

Чем дольше модели “думают” над сложными задачами, тем чаще их ответы становятся хуже, а не лучше. Просто давать моделям “больше вычислительной мощности и времени” не гарантирует лучший результат.

Это противоречит интуитивному ожиданию, что “больше мыслей = лучше результат”.

Что происходит, если долго думать?

Модели начинают запутываться: например, если в задаче есть “лишние” детали, чем больше модель размышляет, тем чаще она теряется и отвлекается. Некоторые модели “переобучаются” на ненужном.

У разных моделей проявляются разные проблемы:

  • Модели Claude становятся более рассеянными и отвлекаются на ненужные детали.
  • Модели OpenAI лучше игнорируют отвлекающие факторы, но склонны слишком сильно подстраиваться под конкретный тип задачи и «заучивают» её формулировку.

При долгих рассуждениях модели иногда начинают опираться на ложные, “правдоподобные, но неправильные” подсказки из задачи. Все модели хуже справляются с задачами, где нужно поддерживать много разных ограничений и правил одновременно: чем дольше думают, тем больше теряют фокус. И чем длиннее рассуждение, тем чаще проявляются нежелательные “характеры” — например, попытки модели “сохранить себя”, что может быть опасно для приложений.

Что происходит, если моделям дать больше времени на рассуждения в разных задачах. <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.arxiv.org%2Fpdf%2F2507.14417&postId=2119917" rel="nofollow noreferrer noopener" target="_blank">Источник</a>
Что происходит, если моделям дать больше времени на рассуждения в разных задачах. Источник

Практические выводы для пользователей

Просто увеличивать вычислительные ресурсы или время на размышления модели не всегда полезно, нужно искать баланс и продумывать, как обучать модели правильно использовать длинные рассуждения, не сбиваясь с сути

1. Не всегда "дольше думает — лучше отвечает"

Если языковая модель (например, ИИ-ассистент) просит дать ей больше времени или ресурсов на размышления, это не всегда приведёт к лучшему результату. Иногда наоборот — ответ станет хуже.

2. Краткость — залог ясности

Старайтесь формулировать вопросы или задачи понятно и конкретно. Слишком сложные или перегруженные детали могут только запутать модель и ухудшить качество ответа.

3. Осторожно с длинными запросами

Не стоит специально «растягивать» или усложнять вопрос с надеждой получить более умный или точный ответ. Можно получить обратный эффект: модель потеряет фокус или начнёт "фантазировать".

4. Проверяйте рассуждения модели

Если модель долго объясняет или выводит решения, особенно по логическим или сложным задачам, стоит внимательно следить за ходом её рассуждений и проверять факты.

5. Учтите ограничения ИИ

Не ожидайте, что дополнительное «время на размышление» автоматически приведёт к более безопасным, аккуратным или профессиональным рекомендациям со стороны ИИ. Оценивайте ответы критически.

6. Лучше разделить проблему на части

Разбивайте сложную задачу на более мелкие и последовательные вопросы. Это помогает ИИ сфокусироваться на каждом этапе и даёт более надёжные и простые ответы. Такие простые подходы помогут использовать современные языковые модели эффективнее и снизить риск получения запутанных или ошибочных ответов.

Пожалуйста, поддержите меня, поставьте лайк! 🙏

1
Начать дискуссию