хоть и смешно, но попробую рассказать почему это именно так работает)
LLM обучают на токенах (если упрощенно, то это части слов), и когда она "пишет" текст, она на деле предсказывает следующий токен/часть слова. Из-за этого буквы внутри этой части слова она не очень понимает (только очень примерно), т.к. оперирует именно токенами - это ее атомарная единица
другое дело, что более совершенная модель, которая знает в себе большее количество токенов, с большей вероятностью сможет написать такое предложение. Поэтому у OpenAI моделей это получается чуть лучше, чем у Сберовкой
Крутяк
Я даже не знаю, стало хуже с релиза или нет, но 28 августа он мне примерно так отвечал
Комментарий недоступен
хоть и смешно, но попробую рассказать почему это именно так работает)
LLM обучают на токенах (если упрощенно, то это части слов), и когда она "пишет" текст, она на деле предсказывает следующий токен/часть слова. Из-за этого буквы внутри этой части слова она не очень понимает (только очень примерно), т.к. оперирует именно токенами - это ее атомарная единица
другое дело, что более совершенная модель, которая знает в себе большее количество токенов, с большей вероятностью сможет написать такое предложение. Поэтому у OpenAI моделей это получается чуть лучше, чем у Сберовкой
Какие претензии могут быть к нему. Все использованные буквы из русского алфавита))