OpenAI представила модель GPT-4, которая может понимать не только текст, но и изображения Статьи редакции

Её уже использует обновлённый поисковик Microsoft, представленный в начале февраля.

  • OpenAI представила GPT-4, которую глава компании Сэм Альтман назвал в Twitter «самой способной» ИИ-моделью разработчика. По его словам, она «по-прежнему с недостатками, ограничена и кажется более впечатляющей при первом использовании, чем после того, как провести с ней больше времени».
  • Альтман также отметил, что GPT-4 креативнее предыдущих версий и меньше «галлюцинирует».
  • В отличие от GPT-3.5, GPT-4 может понимать не только текст, но изображения. Эту опцию пока тестирует только один партнёр компании, пишет TechCrunch, — сервис для слабовидящих и незрячих Be My Eyes. В приложении появилась функция «виртуальный волонтёр», который может отвечать на вопросы об отправленных ему изображениях. Например, рассказать о содержимом холодильника по его фотографии и предложить рецепты из доступных продуктов.
  • OpenAI отметила, что при обычном разговоре разница между GPT-3.5 и GPT-4 может быть «едва уловимой», но заметна, когда задача более сложная и требует «подробных инструкций».
  • Microsoft также подтвердила, что «новый Bing» работает на GPT-4, адаптированном под поиск.
  • Пользователи могут записаться в лист ожидания для API, владельцам подписки ChatGPT Plus продукт уже доступен.

Announcing GPT-4, a large multimodal model, with our best-ever results on capabilities and alignment: https://openai.com/product/gpt-4

0
206 комментариев
Написать комментарий...
Марк Кац

Интересно, когда выпустят

Ответить
Развернуть ветку
PiFagor

Уже все работает, разницы пока особой не заметил. Но пишет медленее. Жду презентации через 30 минут.

Ответить
Развернуть ветку
Aleks B

где будет преза?

Ответить
Развернуть ветку
badResistor

веди трансляцию)

Ответить
Развернуть ветку
203 комментария
Раскрывать всегда