OpenAI представила модель GPT-4, которая может понимать не только текст, но и изображения Статьи редакции

Её уже использует обновлённый поисковик Microsoft, представленный в начале февраля.

  • OpenAI представила GPT-4, которую глава компании Сэм Альтман назвал в Twitter «самой способной» ИИ-моделью разработчика. По его словам, она «по-прежнему с недостатками, ограничена и кажется более впечатляющей при первом использовании, чем после того, как провести с ней больше времени».
  • Альтман также отметил, что GPT-4 креативнее предыдущих версий и меньше «галлюцинирует».
  • В отличие от GPT-3.5, GPT-4 может понимать не только текст, но изображения. Эту опцию пока тестирует только один партнёр компании, пишет TechCrunch, — сервис для слабовидящих и незрячих Be My Eyes. В приложении появилась функция «виртуальный волонтёр», который может отвечать на вопросы об отправленных ему изображениях. Например, рассказать о содержимом холодильника по его фотографии и предложить рецепты из доступных продуктов.
  • OpenAI отметила, что при обычном разговоре разница между GPT-3.5 и GPT-4 может быть «едва уловимой», но заметна, когда задача более сложная и требует «подробных инструкций».
  • Microsoft также подтвердила, что «новый Bing» работает на GPT-4, адаптированном под поиск.
  • Пользователи могут записаться в лист ожидания для API, владельцам подписки ChatGPT Plus продукт уже доступен.

Announcing GPT-4, a large multimodal model, with our best-ever results on capabilities and alignment: https://openai.com/product/gpt-4

0
206 комментариев
Написать комментарий...
Николай Глущенко

Какой бы функционал gpt-боту ни пилили - у него в первую очередь проблемы с интеллектом. Если бы его обычные ответы давал человек - я бы сказал что у него IQ меньше 100. И есть подозрения, что это системная проблема, связанная со способом обучения бота. Бот копирует среднюю температуру по госпиталю, он неспособен искать оптимальное решение. Обучить бота делать интеллектуальную работу очевидно можно, но гораздо сложнее - для этого нужно загрузить в базу только ответы специалистов высокой квалификации, которых гораздо меньше. В этом смысле его гораздо проще обучить играть в игры, т.к. там игроки естественным образом ранжированы, и создают большую базу данных, опять же естественным способом. Но для многих отраслей подобную базу будет сделать сложновато. Так что в общем доступе ботов способных делать серьёзную работу в обозримом будущем не появится. И нет, написание диплома это не серьёзная работа - скорее муторная.

Ответить
Развернуть ветку
Peter Rezikov

Его интеллект просто работает на другом железе и других принципах, совершенно отличных от того как работает мозг человека. Однако результаты работы его интеллекта часто схожи, поэтому нет никакой по факту разницы как он там работает и как обучается. Главное - результат. Сейчас IQ < 100, через год 110, через 5 - 200.

Он решает вполне абстрактные задачи, может строить модели пространства, работает с последовательной логикой. Бла-бла-бла это просто статистика это все задротские размышления, да это его принцип обучения и работы, но по факту результаты схожие с человеческим интеллектом, я не вижу причины не называть это интеллектом.

Ответить
Развернуть ветку
Николай Глущенко

Вас залайкали, но вы ошибаетесь) Принципы идентичны, только у бота есть дополнительные системные ошибки. Абстрактную задачу бот способен решить только если в него загрузить соответствующий шаблон - работа по индукции ему недоступна. Не то чтобы она была доступна всем человекам, но многим таки доступна) Бот именно что копирует поведение не очень умного человека, имеющего доступ к обширной библиотеке. Без системных изменений в подходе он не покажет 200 IQ. И 150 тоже не покажет.

Ответить
Развернуть ветку
Peter Rezikov
Ответить
Развернуть ветку
Николай Глущенко

Математическая индукция - лишь частный случай. В реальной жизни есть много задач, которые решаются по индукции: у вас есть неполная информация, вы делаете гипотезу на основании похожих задач, которую впоследствии подтверждаете или опровергаете. И за пределами математики бот на такое не способен. Потому что чтобы это сделать - нужно уметь логически осмыслить эмпирические наблюдения и составить из всего длинную логическую цепочку. И это боту недоступно само по себе, к тому же на длинных цепочках его в любом случае плавит, даже без логической нагрузки.

Ответить
Развернуть ветку
Peter Rezikov

Доступно, вы проверьте. Просто поставьте ему логически задачи которые считаете "ему недоступны". Даже если он их не решит, от будет их пытаться решать именно логическим путем.

Ответить
Развернуть ветку
Николай Глущенко

Честно, мне лень перечитывать, потому что я ставил ему много таких задач. Для примера: предложил ему рассчитать температуру на вершине Эвереста - навскидку он справился. Предложил по аналогии рассчитать температуру на аналогичной высоте над Антарктидой - и его моментально поплавило, цифра получилась выше чем над Эверестом. Потом ещё 4 сообщения пытался объяснить ему где он ошибся, но его начинало плавить только сильнее. При том, что любой школьник решивший первую задачу, обязательно справился бы и со второй. И это ещё достаточно примитивный пример. Поверьте, я достаточно протестировал бота чтобы сделать те выводы которые сделал. Возможно его недостаточно протестировали вы)

Ответить
Развернуть ветку
Peter Rezikov

Более чем достаточно, я не говорю что он не ошибается. Но решает задачи пользуясь именно логикой по шагам. Часто ему этой логики не хватает, но это дело времени. Буду тестить gpt4, посмотрим

Ответить
Развернуть ветку
Dee

Попробуйте на четверке, было бы интересно справится ли новая версия

Ответить
Развернуть ветку
Николай Глущенко

Попробовал на Майкрософтовской версии. В этот раз он справился чуть лучше, но всё-равно допустил несколько ошибок: например перевёл -25 С в 298 К (лол), а когда я попросил его пересчитать с исправленной температурой - завалил расчёты, получив явно завышенную цифру, и дальше исправлять отказался. Для сравнения gpt-3 на этом этапе начал писать мне шизоидный бред, отчаянно пытаясь спасти лицо. Т.е. разница между ними определённо есть, но я бы не сказал что 4-ка прям намного лучше)

Ответить
Развернуть ветку
Peter Rezikov

Вот еще

Ответить
Развернуть ветку
Peter Rezikov
Принципы идентичны

Я имел ввиду нейроны в мозге и псевдонейроны в модели. Разве они идентичны? Совершенно по разному работают. Но вот результаты схожи.

Абстрактную задачу бот способен решить только если в него загрузить соответствующий шаблон - работа по индукции ему недоступна

Но это не так, я ему скармливал странные логические задачи которые сам придумал и которых нет в интернете, и он их решал без всяких шаблонов.

Ниже привел ответ самого бота про индукцию. Но я много раз убежала что он использует логику и последовательность логических заключений.

Без системных изменений в подходе он не покажет 200 IQ. И 150 тоже не покажет.

Однако результаты gpt3 vs gpt4 показали неплохой прирост на логических задачах, пока еще до человеков далеко, но это до лучших человеком. Обычных уже норм делает

Ответить
Развернуть ветку
203 комментария
Раскрывать всегда