Режим доступен подписчикам платных тарифов.Advanced Voice Mode в ChatGPT получил «зрение»: чат-бот может понять, что находится на экране устройства через его шеринг, или распознать видео с камеры.Во время демонстрации один из разработчиков представил чат-боту с помощью видео своих коллег, а затем спросил его, кто есть кто: например, как зовут коллегу в новогодней шапке.В другом примере чат-бот рассказал, как приготовить фильтр-кофе, и оценил технику заваривания.Функция будет появляться у подписчиков ChatGPT Plus, Team и Pro, начиная с 12 декабря 2024 года, пишет TechCrunch. Подписчики Enterprise и Edu получат её не раньше января 2025 года, для пользователей из ЕС, Швейцарии, Исландии, Норвегии и Лихтенштейна сроков нет.OpenAI показала возможности голосового режима на презентации GPT-4o в мае 2024 года. Во время демонстрации спикеры могли прервать чат-бота на середине ответа, чтобы что-то уточнить, или попросить его рассказать особым голосом историю или пропеть её. В сентябре компания начала открывать доступ к нему пользователям платных тарифов.#новости #openai #chatgpt
А у нас!.
А у нас! У нас к 2015-му году будет база на Луне, вот!
«а у нас» только почти доковыляли до уровня GPT-4 (не 4o), пожалейте отечественных айти-гигантов, им и так ещё через год это релизить
Угу. OpenAI изобрели сканер с распознаванием. Это нобелевка, не меньше.
Только представьте, как в следующий раз он будет советовать, что на ужин приготовить, смотря на ваши пустые полки с макаронами
"И сегодня мы приготовим фуа-гра с нежнейшими соусом лё Перти из... кхм, макарон".