OpenAI добавила поддержку видео в «продвинутом» голосовом режиме ChatGPT

Режим доступен подписчикам платных тарифов.

  • Advanced Voice Mode в ChatGPT получил «зрение»: чат-бот может понять, что находится на экране устройства через его шеринг, или распознать видео с камеры.
  • Во время демонстрации один из разработчиков представил чат-боту с помощью видео своих коллег, а затем спросил его, кто есть кто: например, как зовут коллегу в новогодней шапке.
  • В другом примере чат-бот рассказал, как приготовить фильтр-кофе, и оценил технику заваривания.
  • Функция будет появляться у подписчиков ChatGPT Plus, Team и Pro, начиная с 12 декабря 2024 года, пишет TechCrunch. Подписчики Enterprise и Edu получат её не раньше января 2025 года, для пользователей из ЕС, Швейцарии, Исландии, Норвегии и Лихтенштейна сроков нет.
  • OpenAI показала возможности голосового режима на презентации GPT-4o в мае 2024 года. Во время демонстрации спикеры могли прервать чат-бота на середине ответа, чтобы что-то уточнить, или попросить его рассказать особым голосом историю или пропеть её. В сентябре компания начала открывать доступ к нему пользователям платных тарифов.
1111
57 комментариев

А у нас!.
А у нас! У нас к 2015-му году будет база на Луне, вот!

18
1
1
1

«а у нас» только почти доковыляли до уровня GPT-4 (не 4o), пожалейте отечественных айти-гигантов, им и так ещё через год это релизить

1
1

Угу. OpenAI изобрели сканер с распознаванием. Это нобелевка, не меньше.

Только представьте, как в следующий раз он будет советовать, что на ужин приготовить, смотря на ваши пустые полки с макаронами

8

"И сегодня мы приготовим фуа-гра с нежнейшими соусом лё Перти из... кхм, макарон".

1