OpenAI представила модель GPT-4, которая может понимать не только текст, но и изображения Статьи редакции

Её уже использует обновлённый поисковик Microsoft, представленный в начале февраля.

  • OpenAI представила GPT-4, которую глава компании Сэм Альтман назвал в Twitter «самой способной» ИИ-моделью разработчика. По его словам, она «по-прежнему с недостатками, ограничена и кажется более впечатляющей при первом использовании, чем после того, как провести с ней больше времени».
  • Альтман также отметил, что GPT-4 креативнее предыдущих версий и меньше «галлюцинирует».
  • В отличие от GPT-3.5, GPT-4 может понимать не только текст, но изображения. Эту опцию пока тестирует только один партнёр компании, пишет TechCrunch, — сервис для слабовидящих и незрячих Be My Eyes. В приложении появилась функция «виртуальный волонтёр», который может отвечать на вопросы об отправленных ему изображениях. Например, рассказать о содержимом холодильника по его фотографии и предложить рецепты из доступных продуктов.
  • OpenAI отметила, что при обычном разговоре разница между GPT-3.5 и GPT-4 может быть «едва уловимой», но заметна, когда задача более сложная и требует «подробных инструкций».
  • Microsoft также подтвердила, что «новый Bing» работает на GPT-4, адаптированном под поиск.
  • Пользователи могут записаться в лист ожидания для API, владельцам подписки ChatGPT Plus продукт уже доступен.

Announcing GPT-4, a large multimodal model, with our best-ever results on capabilities and alignment: https://openai.com/product/gpt-4

0
206 комментариев
Написать комментарий...
Sudos Ivan

Я не так давно свичнулся с Гугл на Бинг - сложные запросы по техническим темам Гугл вообще не вывозит, а на простых ранжирует как попало. Бинг сильно упростил жизнь.

Ответить
Развернуть ветку
Sergey S

Потому что надо не вопросы задавать, а ключевые подбирать, это ж поисковик. Не благодари.

Ответить
Развернуть ветку
203 комментария
Раскрывать всегда