В Claude 2.1 контекстное окно увеличено вдвое - до 200 тыс. токенов, что значительно больше, чем контекстное окно в 128 тыс. токенов в OpenAI GPT-4. *** В настоящее время OpenAI GPT-4 имеет контекстное окно объемом 128 тыс. токенов, что означает, что Claude может обрабатывать на 62 тыс. токенов больше
Математика для начинающих? Или нейросетка помогала писать?
Не судите строго. Там автор ориг. англ. статьи с числами не ладит. У него и на превью-картинке к медиум-статье написано, что у GPT-4 Turbo 124K, т.е. куда-то делись 4K токенов. И в тексте вот недосчитался 10K разницы. Или среди нейросеток, кажется, завелась "крыса", ворующая токены... )))
В Claude 2.1 контекстное окно увеличено вдвое - до 200 тыс. токенов, что значительно больше, чем контекстное окно в 128 тыс. токенов в OpenAI GPT-4.
***
В настоящее время OpenAI GPT-4 имеет контекстное окно объемом 128 тыс. токенов, что означает, что Claude может обрабатывать на 62 тыс. токенов больше
Математика для начинающих? Или нейросетка помогала писать?
Не судите строго. Там автор ориг. англ. статьи с числами не ладит. У него и на превью-картинке к медиум-статье написано, что у GPT-4 Turbo 124K, т.е. куда-то делись 4K токенов. И в тексте вот недосчитался 10K разницы.
Или среди нейросеток, кажется, завелась "крыса", ворующая токены... )))