Новая модель GPT o1 preview от OpenAi уже успела наделать много шума, якобы, она больше продвинулась, именно, в научных вопросах, по сравнению с предыдущими моделями.
То есть, другие модели могли легко ответить на несложный вопрос, например: "Котенок постоянно просит есть, что это значит".
Ведь, большинство людей, в основном спрашивают вот такие бытовые вопросы и нейросеть легко с ними справляется. Но, задачи, более сложной и узкой направленности, иногда выдает с ошибками или неточностями.
Но так ли это на самом деле?
Привет