Исследователи «спрятали» команды для голосовых помощников в записи музыки и устной речи

Предполагается, что эта технология позволит скрытно управлять Google Home, Amazon Echo и другими домашними устройствами.

Группа учёных из калифорнийского университета Беркли создала технологию, которая позволяет атаковать голосовые помощники и другие устройства для дома с помощью команд, спрятанных в записях музыки и устной речи. Об этом пишет The New York Times.

Системы распознавания голоса интерпретируют звуки, которые они слышат, в буквы, объясняют исследователи. Небольшие изменения в звуках позволяют «отменить» те звуки, которые должно «услышать» устройство и передать новую команду. Исследователи опубликовали документ, в котором описывают подобную атаку на систему распознавания Mozilla DeepSpeech.

В 2016 году эти же учёные показывали, как можно с помощью звуков, спрятанных в белом шуме, заставить «умное» устройство включить режим «в самолёте» или открыть нужный сайт. Новая система действует более скрытно и может, например, незаметно добавить нужный товар в список покупок на Amazon.

Пока нет доказательств того, что кто-то уже использует такую технологию вне лабораторных условий, однако злоумышленники наверняка уже работают в похожем направлении, отметил Николас Карлини (Nicholas Carlini), один из авторов исследования.

В Amazon и Google сообщили, что их помощники Alexa и Assistant используют распознавание голоса, чтобы понимать команды только от людей. Компании не раскрыли, как именно они защищают свои системы от скрытых команд, но заверили, что постоянно улучшают защиту устройств.

Представители Apple заметили, что их «умная» колонка Homepod не задумывалась как устройство, которое сможет, например, открывать двери. Кроме того, iPhone и iPad должны быть разблокированы перед тем, как помощник Siri сможет открывать сайты или приложения.

В 2017 году исследователи из Принстонского университета и Чжэцзянского университета в Китае продемонстрировали технологию DolphinAttack, которая позволяет передавать голосовым помощникам команды с помощью частот, не различимых ухом человека. Показанный пример требует непосредственной близости к атакуемому устройству, но может быть повторён при использовании более мощного передатчика.

В США нет закона, который прямо бы запрещал передачу команд машинам на расстоянии. Суды трактуют трансляцию «подсознательных сообщений» людям как вторжение в личную жизнь, но в случае с машинами такая практика ещё не создана, отмечает The New York Times.

1616
11 комментариев

Сначала взломали систему управления умным автомобилем (дистанционно отключая газ/тормоз/поворачивая руль, доступ через функции аудио-системы с доступом в Internet), теперь это.
Дивный новый мир.
 
Только что рассказали urban legend про двух девушек, обсуждавших на кухне что-то про покупки, и, о ужас - через час увидевших на в Safari на iPhone объявления с рекламой этих покупок ... Вспоминать про Привет, Сири, "название товара", они отчего-то не стали, это бы разрушило всю легенду.
 
Ну а классика жанра баек конечно - в большой аудитории заорать ОК Гугл - youtube - Звуки оргазма - полная громкость (или как-то так было, якобы все Андроиды тут же застонут и заохают на разные голоса)

Ответить

Уже не legend, только про гугл, но я думаю все компании этим занимаются

5
Ответить

С товарищем по-работе в машине в присутствии телефонов что-то обсуждаем, потом толстым слоем ловим рекламу на заданную тему.

Ответить

На iOS помимо всего прочего можно сделать калибровку, чтобы голосовой помощник отзывался только на твой голос.

Ответить

Аналогично на Android

Ответить
Комментарий удалён модератором