Эксперимент в Китае показал, что гуманоидных роботов можно взломать с помощью голосовых команд
На недавних тестах безопасности в Китае исследователи показали, что современные человекоподобные роботы могут быть захвачены без взлома «железа» и без сложных технических приёмов — через голосовые команды и беспроводную связь. Демонстрация прошла на хакерских соревнованиях GEEKCon в Шанхае и вызвала заметный резонанс, потому что речь шла не о симуляции, а о реальных коммерческих роботах.
В одном из показательных экспериментов специалисты из исследовательской группы DARKNAVY получили полный контроль над гуманоидным роботом Unitree, используя уязвимости во встроенном ИИ-агенте, отвечающем за автономность и взаимодействие с человеком. Робот был подключён к сети, но ключевым в атаке оказался не доступ к интернету, а голосовой интерфейс — тот самый механизм, который обычно воспринимается как удобный и «безопасный» способ общения с машиной.
Исследователи не раскрывают точные формулировки голосовых команд, использованных при атаке. По их словам, речь шла не об одной фразе, а о цепочке инструкций, которые эксплуатировали логику ИИ-агента: доверие к голосовому вводу, способность интерпретировать контекст и отсутствие жёсткой границы между разговором и управлением. Иначе говоря, робот воспринимал команды как допустимые действия в рамках своей роли, а не как попытку вмешательства.
Особое внимание привлекла вторая часть демонстрации. После захвата управления робот использовал короткодействующую беспроводную связь, чтобы передать вредоносные инструкции другому устройству поблизости. Этот второй робот при этом не был подключён к интернету, но всё равно оказался скомпрометирован. Эксперимент показал, что изолированность от сети сама по себе не гарантирует безопасность, если роботы способны напрямую взаимодействовать друг с другом.
Чтобы подчеркнуть практические последствия, исследователи отдали роботу агрессивную команду: машина подошла к манекену на сцене и ударила его. Этот момент стал ключевым для обсуждения, потому что атака продемонстрировала не утечку данных и не сбой системы, а риск физического вреда.
Подобные инциденты не ограничиваются одной демонстрацией. Ранее в 2025 году исследователи указывали на уязвимости Bluetooth в роботах Unitree, которые позволяли получить root-доступ и формировать цепочки заражения между устройствами. На том же GEEKCon другие команды показывали захват управления дронами, умными камерами и крупными агентными системами.
Этот эксперимент ясно показывает: уязвимость современных роботов связана не с экзотическими приёмами взлома, а с самой логикой их работы. Голосовые и интеллектуальные интерфейсы расширяют возможности управления, но вместе с этим расширяют и зону риска. Вопрос теперь не в том, возможны ли такие атаки, а в том, насколько к ним готовы разработчики и операторы.