Разница в токенизации, в GPT4 используется BPE tokenizer, обученный на данных в основном на Английском языке. Как результат, один токен на Английском это целое слово или значимый кусок слова а на русском языке это всегда 1 буква. Получается 1000 слов на Английском для модели это ~1300 токенов, а на русском ~6000 токенов.
https://platform.openai.com/tokenizer вот тут можно поиграться и посмотреть как gpt видит текст.
Ну в Германии гос мед страховка обязательная, где то 600 евро в месяц и все калькуляторы ее уже учитывают, когда считаешь net. Включает в себя все острые медицинские необходимости, походу ко врачу и операции и тд, но не стоматологию и косметологию. Думаю в Нидерландах также или лучше)
А можешь пожалуйста написать как ты оформлял претензию евроклиру и что конкретно перекладывал, какие документы?
Потому что он зовет крутых гостей.
Хеш на централизованную api ссылку картинки сахарной ваты
Честно сказать, если бы коридор был 2.7 км я бы тоже напрягся)
Причём такой, что если человеку ещё и плохо станет, к нему даже не пройти.
У меня сразу клаустрофобия от таких узких туннелей развивается)
«но при этом у вас насыщение крови падает, а вместе с этим страдает и работа организма в целом. Навсегда.»
Пруф пожалуйста, будьте добры)
Но на всякий случай напомню, что переболевших более чем полтора года назад нет, так что таких данных быть в природе не может.
Fred Kurdov
Качество от токенизации по буквам страдает, в GPT2 публикации вроде еще описывали про трейдоф между vocab size и context length ( намного эффективнее скейлится первое чем второе).