Обзор устройств персональных ассистентов в 2025 году #2 - Тренды
Всем приветы! Продолжаем говорить о рынке персональных ассистентов. В этот раз поговорим о трендах, которые создают благоприятную обстановку для развития таких устройств :)
Кстати, если вы пропустили, то в первой части мы рассмотрели существующие решения, часть из которых уже доступна в РФ )
От записи к проактивной помощи – Эволюция в "цифрового двойника"
В конце 2022 года выход ChatGPT подарил нам новую эпоху развития искусственного интеллекта, вызвав бурный рост рынка SaaS-сервисов, построенных на использовании API больших языковых моделей с заготовленными инструкциями. В России же было ещё проще, так как из-за ограничений на использование западных сервисов, стали десятками рождаться телеграм боты, приложения и сайты, которые давали доступ к нейросетям
Первые компании, сумевшие адаптироваться к новым условиям и предложить готовые решения с минимальными доработками, заработали много денег. Но сегодня уже мало просто "обёртки", мы хотим закрытия наших задач с помощью сервисов, в том числе - от персональных ассистентов
Если вчера транскрипция встреч создавала вау эффект, то сегодня растёт запрос на автоматическое создание задач, отправку писем и назначение встреч. Завтра же захотим, чтобы такие решения работали на наших устройствах— без подписок и высоким уровнем безопасности
В корпоративной среде важное значение приобретают API и SDK, которые позволяют разработчикам напрямую интегрировать результаты работы персональных ассистентов с трекерами, календарями и мессенджерами. Яркими примерами таких интеграций являются стартапы, которые делают первые шаги на рынке физических персональных ассистентов - Bee, PLAUD и Limitless
А Бигтехи массово интегрируют AI функции в свои экосистемы - автоматическое саммари, субтитры и недавно Google презентовал real-time перевод речи на встрече в google meet
Приватность данных станет конкурентным преимуществом
Конфиденциальность потихоньку начинает становиться важной и что главное - реализуемой
Интересно, сколько приватных данных увидела ChatGPT у читателей?)
По прогнозу Gartner, к 2025 году более 50% корпоративных данных будет создаваться и обрабатываться за пределами централизованных облаков — на локальных устройствах
Яркий пример этого тренда - iFLYTEK Smart Recorder, диктофон полностью расшифровывают речь на самом девайсе, не выпуская данные наружу. Такой подход делает их полезными в финтехе, юриспруденции, медтехе и госучреждениях, где облачные (тем более зарубежные) сервисы сложно внедрить из-за служб безопасности и регуляторных требований
Этот прорыв стал возможен благодаря двум факторам:
- Рост производительности «железа»: Компании внедряют энергоэффективные чипы с нейронными движками (NPU), которые позволяют запускать сложные AI-модели локально
- Оптимизация нейросетей: Появление малых языковых моделей (SLM), таких как Microsoft Phi-3 Mini и Google Gemma 2B, позволило уместить мощь LLM в карман. К примеру, Gemma 2B работает на флагманах вроде Samsung Galaxy S23, доказывая, что высокая производительность больше не требует подключения к дата-центру
На рынке формируется новый стандарт, где приватность — это не дополнительная опция, а база, которая сильно повышает траст людей к технологии
Гибридная модель и битва за «промежуточное облако»
На первый взгляд, рынок AI-устройств предлагает простой выбор: либо быстрая и приватная обработка данных на самом гаджете (Edge AI), либо мощная, рассуждающая, но не безопасная облачная модель (Claude, ChatGPT, Gemini и тд). Но дьявол кроется в деталях :)
Я считаю, что будет также нарастать тренд на персональные, защищённые облака, и вот почему:
Ваш AI-кулон может мгновенно расшифровать речь и выделить задачи, но по крайне мере пока что в нём не будет большой ризонинг модели, которая сможет выполнить ваш запрос, который потребует поиска в интернете, агрегации информации и активации какого нибудь процесса
А отправлять такой запрос, полный личных деталей, в общедоступное облако — значит поступиться приватностью. Именно эту проблему и призвана решить гибридная модель
Примером такого подхода стала стратегия Apple, представленная на WWDC 2024. Их концепция Private Cloud Compute — это, по сути, многоуровневая система доверия:
- Уровень 1: Устройство (On-Device) Простые запросы, не требующие внешних данных, обрабатываются локально, обеспечивая максимальную скорость и конфиденциальность
- Уровень 2: Частное облако (Private Cloud) Если задача сложнее, данные направляются не в общее облако, а на специальные серверы Apple. Компания криптографически гарантирует, что сама не имеет к ним доступа, а после обработки запроса информация безвозвратно удаляется
- Уровень 3: Внешние партнеры (External AI) И только для самых глобальных задач система явно запросит разрешение пользователя на обращение к партнерским моделям вроде ChatGPT. Впрочем, можно прогнозировать, что в перспективе нескольких лет, с дальнейшим развитием Edge AI, потребность в этом внешнем уровне будет сокращаться
Почему это фундаментально меняет правила игры для рынка физических AI-гаджетов?
В ближайшем будущем, помимо дизайна устройства, одним из критериев для покупки будет экосистема, в которой устройство находится. Безопасность данных, наличие инфраструктуры которая обеспечивает вычисления -- будут важны при нашем выборе устройств персональных ассистентов