Её уже использует обновлённый поисковик Microsoft, представленный в начале февраля.OpenAI представила GPT-4, которую глава компании Сэм Альтман назвал в Twitter «самой способной» ИИ-моделью разработчика. По его словам, она «по-прежнему с недостатками, ограничена и кажется более впечатляющей при первом использовании, чем после того, как провести с ней больше времени».Альтман также отметил, что GPT-4 креативнее предыдущих версий и меньше «галлюцинирует». В отличие от GPT-3.5, GPT-4 может понимать не только текст, но изображения. Эту опцию пока тестирует только один партнёр компании, пишет TechCrunch, — сервис для слабовидящих и незрячих Be My Eyes. В приложении появилась функция «виртуальный волонтёр», который может отвечать на вопросы об отправленных ему изображениях. Например, рассказать о содержимом холодильника по его фотографии и предложить рецепты из доступных продуктов.OpenAI отметила, что при обычном разговоре разница между GPT-3.5 и GPT-4 может быть «едва уловимой», но заметна, когда задача более сложная и требует «подробных инструкций».Microsoft также подтвердила, что «новый Bing» работает на GPT-4, адаптированном под поиск.Пользователи могут записаться в лист ожидания для API, владельцам подписки ChatGPT Plus продукт уже доступен.OpenAI @OpenAI14.03.2023Announcing GPT-4, a large multimodal model, with our best-ever results on capabilities and alignment: https://openai.com/product/gpt-4#новость #openai #gpt4
И потом идешь в гугл и ищешь - не херню ли она про магнит сморозила, и не наврала ли она еще где-нибудь.
Комментарий недоступен
удобнее в сразу в бинг-чате смотреть релевантные ссылки на сгенерированные ответы
gpt-3.5 нёс полную пургу.
говорит складно, но полный бред.
и потом вообще не "удивляешься" результату))
Большая часть людей не будет этим заниматься. О чём вы?
доверяй, но проверяй, нормальная практика)