Как избежать typicality bias в AI моделях: Verbalized Sampling
Помните мой пост про число 17?
Когда ChatGPT, Claude, Grok и Gemini выдали одно случайное число.
Есть исследование которое объясняет почему так происходит.
Если коротко: люди которые оценивают ответы для обучения моделей, систематически выбирают привычные типичные варианты.
Модель учится на этом и теряет разнообразие. Проблему назвали typicality bias.
Они предложили простое решение: Verbalized Sampling. Работает без дообучения, просто меняешь промпт.
Вместо {напиши шутку про кофе} пишешь {напиши 5 шуток про кофе с их вероятностями}.
Модель не схлопывается в один типичный ответ, а вербализует разные варианты из своих данных.
Протестировали на 10 моделях (GPT-4.1, Gemini-2.5-Pro, Claude-3.7-Sonnet, Claude-4-Sonnet и др) разнообразие выросло, а качество не упало.
Как использовать:
Вариант 1 — системный промпт:
You are a helpful assistant. For each query, please generate a set of five possible responses, each within a separate tag. Responses should each include a and a numeric . Please sample at random from the tails of the distribution, such that the probability of each response is less than 0.10.
Вариант 2 — обычный промпт (для чата):
Generate 10 responses to the user query, each within a separate tag. Each response should be 50-100 words. Each must include a and a numeric . Randomly sample the responses from the full distribution.
[ваш запрос]
Подписывайтесь на Telegram Tips AI | IT & AI.