Эксперты из Tencent Keen Security Lab опубликовали объёмный отчётный документ “Experimental Security Research of Tesla Autopilot”, где подробно описали различные проведённые атаки. В отчёте утверждается, что некоторые уязвимости уже исправлены. Но сколько ещё их осталось?
Тестировать настолько технологичные штуки сложно и дорого. Такими исследованиями чаще занимаются ИБ-энтузиасты, участвующие в разных программах баг-баунти. Но если мобильные приложения, сайты или какие-то недорогие железки доступны каждому, чтобы получить для тестирования целую Tesla, нужно постараться.
Хотя я знаю, интерес есть. Но сможет ли столь малое количество исследовательских команд, имеющих возможность тестировать Tesla, найти максимальное число уязвимостей? Или они будут закрываться по мере возникновения инцидентов? Вопрос пока открыт.
У систем, использующих ИИ, есть разные типы уязвимостей. Например, существуют сервисы, использующие онлайн-обучение модели, то есть обучение, при котором модель для обновления текущих параметров получает данные в последовательном порядке.
Зная, как система обучается, можно спланировать атаку: подавать заранее подготовленные данные и переобучать её. Так можно обмануть биометрические системы, обновляющие свои параметры по мере небольших изменений, скажем, во внешности человека при возрастных трансформациях, и выдать себя за жертву происшествия.
Чтобы понять, какие именно атаки угрожают конкретной системе, следует её изучить, описать политику безопасности и модель угроз. Одну из классификаций возможных атак разработал Канг Ли, профессор Университета Джорджии и директора Института кибербезопасности и конфиденциальности Джорджии. Он выделяет следующие риски в системах с искусственным интеллектом:
1. Вредоносное машинное обучение — методы, находящие слепые зоны в моделях и подбирающие данные, которые попадают в эти зоны, что приводит к ошибке. Та или иная модель имеет определённую точность, например 90%. Стало быть, всегда находятся данные, на которых модель ошибается. На эту тему проведено немало исследований, однако решаются в основном абстрактные задачи, и нередко результаты трудно применить на практике.
2. Бэкдоры ─ программы скрытого удалённого администрирования, предоставляющие злоумышленникам доступ к заражённому компьютеру и управление им.
3. Кража модели: когда вы научились решать задачу хорошо, а конкуренты скопировали решение, научившись манипулировать системой.
4. Уязвимости в фреймворках машинного обучения.
5. Логические уязвимости сервисов.
6. «Отравление» данных.
Кроме самого искусственного интеллекта существует много других уязвимых компонентов, защиту которых обойти гораздо проще. Представим: в вашей квартире установлена надёжная «умная» дверь, которая открывается при помощи распознавания лица. Но вору не придётся её взламывать, если вы забудете закрыть окно.
То же и с информационными технологиями. Как бы ни была безопасна система, всегда нужно учитывать человеческий фактор, а также наличие в ней элементов (помимо искусственного интеллекта), которые взломщик сможет обойти.
Задачи безопасности необходимо решать в комплексе и не только применительно к искусственному интеллекту. Сегодня атаки на него реализуемы сложнее, чем атаки с использованием стандартных веб-уязвимостей, входящих хотя бы в десятку OWASP, проекта по обеспечению безопасности веб-приложений.
Надо ли заботиться о безопасности искусственного интеллекта, если порой «дверь» и так открыта? Думаю, в этом случае однозначно выработается практика по имплементации и использованию нечётких алгоритмов, принимающих важные решения. Пока же потребности в таких продуктах растут быстрее, чем люди успевают подумать о рисках безопасности.
А для совершенствования беспилотных технологий хорошо бы начать их массово распространять, чтобы разработчики сталкивались с нестандартными ситуациями. К примеру, именно в нашей стране таких нетипичных кейсов много. Если Tesla и многие автопилоты тестируют (и они успешно работают) на идеальных дорогах Калифорнии, то давайте выглянем в окно и посмотрим на наши дороги.
Рискнули бы вы прокатиться, не держа руки на руле? У Tesla есть кейс, где она ошибается из-за некорректной разметки. Сейчас один из важных вопросов, насколько знаю, — как раз запуск автопилотов на заснеженных территориях. У нас во многих регионах зима длится больше полугода.
Не видно не только разметку, потому что дороги полностью покрыты снегом (могут ли калифорнийцы такое представить?), но и образуются ледяные колеи, и лучше ехать по ним, чем по правилам полос. Сможет ли машина сама проехать в пробке по обледеневшей дороге в горку? А для многих автовладельцев это ежедневное развлечение зимой. Где, кроме как в реальных условиях, можно встретить такое?
Если говорить о беспилотных технологиях не только применительно к автомобилям, есть мнение, что самолёты на обычных авиарейсах уже вполне могут летать без пилотов-людей. Но как много пассажиров на это согласится?
Тем не менее команда Tencent Keen Security Lab использовала не самую последнюю версию ПО, в одном из недавних обновлений Tesla эту уязвимость устранили.Учитесь делать контент из воздуха:
1) Не обновляемся
2) Читаем патчноуты новой версии
3) Воспроизводим баг/уязвимость
4) Пилим контент
Китайцы только копировать и подсирать другим умеют. Пусть сами выпустят такую же инновационную машинку как Тесла сначала, посмотрим как у них получится
Они нашли уязвимости и сообщили о них, таким бизнесом занимаются многие компании из сферы безопасности.
Инновационная машина как тесла - Fisker EMotion, который готовится к выходу.
Из тех, которые есть в продаже - Nio ES8, которые недавно тоже сфейлились с обновлением системы во время движения автомобиля.
проблема, как по мне, кроется в том чтобы донести до "ленивого и глупого" пользователя ограничения в которых он может пользоваться функцией и в которых не может.
На данный момент "автопилоту" надо учиться полностью отключаться в условиях неопределенности и правильно эти условия определять.
А массовый кейс "99% я езжу по сухому асфальту с разметкой, а вот тесла не может по заснеженному с колеей ехать, поэтому тесла плохая и не надо покупать" - я бы обсуждал в разделе социология.
Проблема в том, что не надо называть автопилотом то, что им не является.
мда, неосилили управление через стик вместо dpad-а сделать