{"id":14291,"url":"\/distributions\/14291\/click?bit=1&hash=257d5375fbb462be671b713a7a4184bd5d4f9c6ce46e0d204104db0e88eadadd","hash":"257d5375fbb462be671b713a7a4184bd5d4f9c6ce46e0d204104db0e88eadadd","title":"\u0420\u0435\u043a\u043b\u0430\u043c\u0430 \u043d\u0430 Ozon \u0434\u043b\u044f \u0442\u0435\u0445, \u043a\u0442\u043e \u043d\u0438\u0447\u0435\u0433\u043e \u0442\u0430\u043c \u043d\u0435 \u043f\u0440\u043e\u0434\u0430\u0451\u0442","buttonText":"","imageUuid":""}

Голосовая аутентификация на самом деле огромная дыра в безопасности

Голосовая аутентификация позволяет компаниям проверять личность своих клиентов с помощью якобы уникального «голосового отпечатка» на самом деле огромная дыра в безопасности

При регистрации в голосовой аутентификации вас просят повторить определенную фразу своим голосом. Затем система извлекает уникальную голосовую подпись (голосовой отпечаток) из этой предоставленной фразы и сохраняет ее на сервере», — сказал Андре Кассис, кандидат наук в области компьютерной безопасности и конфиденциальности и автор исследования.

«При будущих попытках аутентификации вас попросят повторить другую фразу, а извлеченные из нее функции сравниваются с голосовым отпечатком, который вы сохранили в системе, чтобы определить, следует ли предоставлять доступ».

После того, как была введена концепция голосовых отпечатков, злоумышленники быстро поняли, что они могут использовать программное обеспечение «deepfake» с поддержкой машинного обучения для создания убедительных копий голоса жертвы, используя всего пять минут записанного звука.

Фото: Unsplash

В ответ разработчики ввели «контрмеры спуфинга» — проверки, которые могли бы изучить образец речи и определить, был ли он создан человеком или машиной.

Исследователи из Ватерлоо разработали метод, который позволяет избежать контрмер спуфинга и может обмануть большинство систем голосовой аутентификации всего за шесть попыток. Они идентифицировали маркеры в дипфейковом аудио, которые выдают, что он сгенерирован компьютером, и написали программу, которая удаляет эти маркеры, делая его неотличимым от подлинного звука.

В недавнем тесте системы голосовой аутентификации Amazon Connect они достигли 10% успеха за одну четырехсекундную атаку, при этом этот показатель вырос до более чем 40% менее чем за 30 секунд. С некоторыми из менее сложных систем голосовой аутентификации, на которые они нацелены, исследователи достигли 99% успеха после шести попыток.

0
Комментарии
-3 комментариев
Раскрывать всегда