Как работают голосовые ассистенты? Стоит ли бояться прослушки?

В первую очередь, хочется разобраться в том, как голосовой ассистент распознает и «понимает» нашу речь. В основе функционирования голосовых ассистентов, таких как "Алиса" от Яндекса, "Салют" от Сбера, и "Маруся" от VK, лежит сложный процесс распознавания и расшифровки речи. Эти технологии применяются с использованием инновационных решений, таких как SpeechKit, что обеспечивает высокую точность и скорость обработки произнесенных слов. SpeechKit - это технология распознавания речи от Яндекса, которая работает на основе анализа акустических особенностей произнесенных фраз.

Передача данных от голосовых ассистентов представляет собой важный этап, требующий тщательной обработки и классификации. Цифровые данные звуков отправляются на сервер компании в виде числовых частотных характеристик, далее происходит перевод этих данных в текст. Интересной особенностью является способность голосовых ассистентов заполнять пропущенные звуки, основываясь на частоте их использования между предыдущим и последующим звуком, эта технология работает почти как автозамена символов в клавиатуре смартфона. Также, существует такой аспект передачи запросов как их классификация, которая позволяет определить их цель, будь то управление умным домом или поисковый запрос. На самые часто задаваемые вопросы ответы написаны редакторами. Помимо всего прочего, если запрос не подходит ни под один класс, вмешивается нейросеть, проводящая вычисления, на основе которых устройство дает ответ.

Есть ли на моем устройстве прослушка? С этим вопросом, очевидно, больше всего сталкивался Яндекс. Когда речь идет об "Алисе" и функции "прослушки", важно отметить, что эта опция доступна только на устройствах, участвующих в закрытом бета-тестировании. Это позволяет существенно улучшить точность распознавания и снизить количество ложных срабатываний, то есть для рядового пользователя это является большим преимуществом. Значительный акцент делается на том, что фоновые звуковые данные не направляются на сервер; вместо этого они хранятся локально на устройстве пользователя до тех пор, пока пользователь сам не обратится к голосовому помощнику.

В свете вышесказанного становится ясным, что несмотря на сложность процессов, связанных с обработкой и передачей аудиоданных, современные технологии, такие как SpeechKit и системы закрытого бета-тестирования, нас никто не прослушивает.
А для тех, кто переживает, на всех устройствах Яндекса, как и многих других производителей, есть физическая кнопка выключения микрофона, которая просто отключает его от питания.

66
1 комментарий

Интересная статья, узнал много нового. Про SpeechKit вообще впервые услышал.

Ответить