Учёные предупреждают: ваш голос содержит конфиденциальную информацию
Голос человека содержит значительно больше информации, чем принято считать, и в ближайшие годы это может стать серьёзной проблемой для приватности. На это обращает внимание исследователь Aalto University, доцент в области речевых технологий Том Бэкстрём. По его словам, современные системы анализа речи уже способны извлекать данные, которые человек не собирался раскрывать — и со временем таких возможностей станет больше.
Речь идёт не только об очевидных вещах вроде эмоций или усталости. По особенностям интонации, дыхания, темпа речи и выбора слов алгоритмы могут делать выводы о состоянии здоровья, уровне образования, культурном фоне и даже политических предпочтениях. Эта информация передаётся вместе с голосом автоматически, без ведома говорящего и без отдельного согласия.
Бэкстрём отмечает, что такие данные могут использоваться в коммерческих и административных целях. Например, выводы о здоровье — влиять на стоимость страховки, а эмоциональное состояние — использоваться для более агрессивной и точной рекламы. Отдельный риск связан с рабочей средой: работодатели могут анализировать голосовые записи сотрудников или кандидатов и использовать полученные данные при принятии решений.
При этом технология извлечения всей возможной информации из речи пока не достигла предела, но направление развития очевидно. Поэтому исследователи пытаются заранее выработать защитные меры. Среди них — локальная обработка речи на устройстве без отправки данных в облако, фильтрация частной информации и технические способы ограничить запись и анализ звука конкретным пространством.
Отдельная задача — сделать риски понятными для пользователей. Команда Бэкстрёма работает над метриками, которые позволяют количественно оценить, сколько информации «утекает» через голосовую запись. Идея в том, чтобы человек мог осознанно понимать, чем он рискует, передавая голосовые данные тому или иному сервису.
Исследование подчёркивает, что вопрос приватности голоса выходит за рамки чисто технической проблемы. Он затрагивает психологию, доверие к цифровым сервисам и то, насколько прозрачно технологии объясняют свои возможности. По мнению Бэкстрёма, защита приватности может не только снизить риски, но и улучшить сами продукты — за счёт меньшего объёма данных и более чётко ограниченных функций.
А вас беспокоит то, сколько информации о нас станет доступно благодаря ИИ?