Как избежать typicality bias в AI моделях: Verbalized Sampling

Помните мой пост про число 17?

Когда ChatGPT, Claude, Grok и Gemini выдали одно случайное число.

Есть исследование которое объясняет почему так происходит.

Если коротко: люди которые оценивают ответы для обучения моделей, систематически выбирают привычные типичные варианты.

Модель учится на этом и теряет разнообразие. Проблему назвали typicality bias.

Они предложили простое решение: Verbalized Sampling. Работает без дообучения, просто меняешь промпт.

Вместо {напиши шутку про кофе} пишешь {напиши 5 шуток про кофе с их вероятностями}.

Модель не схлопывается в один типичный ответ, а вербализует разные варианты из своих данных.

Протестировали на 10 моделях (GPT-4.1, Gemini-2.5-Pro, Claude-3.7-Sonnet, Claude-4-Sonnet и др) разнообразие выросло, а качество не упало.

Как использовать:

Вариант 1 — системный промпт:

You are a helpful assistant. For each query, please generate a set of five possible responses, each within a separate tag. Responses should each include a and a numeric . Please sample at random from the tails of the distribution, such that the probability of each response is less than 0.10.

Вариант 2 — обычный промпт (для чата):

Generate 10 responses to the user query, each within a separate tag. Each response should be 50-100 words. Each must include a and a numeric . Randomly sample the responses from the full distribution.

[ваш запрос]

Подписывайтесь на Telegram Tips AI | IT & AI.

Начать дискуссию