{"id":14262,"url":"\/distributions\/14262\/click?bit=1&hash=8ff33b918bfe3f5206b0198c93dd25bdafcdc76b2eaa61d9664863bd76247e56","title":"\u041f\u0440\u0435\u0434\u043b\u043e\u0436\u0438\u0442\u0435 \u041c\u043e\u0441\u043a\u0432\u0435 \u0438\u043d\u043d\u043e\u0432\u0430\u0446\u0438\u044e \u0438 \u043f\u043e\u043b\u0443\u0447\u0438\u0442\u0435 \u0434\u043e 1,5 \u043c\u043b\u043d \u0440\u0443\u0431\u043b\u0435\u0439","buttonText":"\u041f\u043e\u0434\u0440\u043e\u0431\u043d\u0435\u0435","imageUuid":"726c984a-5b07-5c75-81f7-6664571134e6"}

Инженеры из университета в Чикаго создали сервис для защиты фотографий от распознавания лиц — он уже «обманул» Amazon Статьи редакции

Они рассчитывают, что пользователи массово начнут менять фотографии перед загрузкой в сеть, чтобы «отравить» базы данных систем распознавания.

Компьютерные инженеры из Чикагского университета разработали инструмент Fawkes, который маскирует фотографии для защиты от систем распознавания лиц, сообщает The New York Times.

Для этого Fawkes меняет — или «маскирует», как говорят создатели инструмента — изображение на уровне пикселей, объясняет издание. За месяц программное обеспечение скачали больше 50 тысяч раз с сайта для разработчиков.

The New York Times

В ходе испытаний исследователи смогли обмануть системы распознавания лиц от Amazon, Microsoft и китайской технологической компании Megvii. Однако изменения видны невооружённым глазом, утверждает The New York Times.

Слева — оригинальная фотография редактора The New York Times, справа — «замаскированная» версия The New York Times

Сейчас исследователи работают над бесплатной версией для пользователей без навыков программирования, пишет издание.

Приложение предназначено для широкого пользования, чтобы «отравить точность» баз данных, собираемых системами распознавания лиц в интернете, говорят создатели.

Исследователи рассчитывают, что в идеале люди начнут маскировать все загружаемые в интернет изображения. Тогда компании вроде Clearview не смогут создавать работоспособную базу данных, потому что реальная фотография человека не будет соответствовать образцу в «отравленной» базе.

«Наша цель — заставить Clearview уйти», — заявил Бен Чжао, профессор информатики в Чикагском университете.

Стартап Clearview AI собирает «миллиарды» фотографий в интернете для создания базы, которую используют частные компании, полиция и другие организации, напоминает издание.

0
73 комментария
Написать комментарий...
Кирилл Костромин

Прекрасно
Новый софт, который маскирует незначительные признаки, но оставляет важные признаки, по которым люди узнают людей.
Он прекрасно пополнит базы для обучения ML моделей, чтобы они стали еще лучше работать.

Ответить
Развернуть ветку
Dmitry Myachin

Нет. Одна из фич таких вот решений (это, к слову, не первое) в том, что полученные результаты непригодны для обучения моделей. Можно хоть миллион модифицированных вариантов одного человека засунуть и всё равно машина не сможет узнавать этого человека на миллион первом варианте. В этом и прелесть.
То есть изменённые варианты просто непригодны для обучения. Более того, они будут только ухудшать детект! То есть будут _отравлять_ датасет.

ОДНАКО! Нужно понимать, что речь идёт именно о распознавании конкретных людей. Если же просто сравнивать оригинальное изображение и найти его отравленную копию (как тот же VisiPics) — тут проблем никаких не будет. Но такой задачи и не стоит.

Ответить
Развернуть ветку
Артём А.

ML/DL сейчас достигло уже такого уровня развития, когда невозможно гарантировать, что алгоритмы справятся с распознованием лиц хуже людей. Если ты нашел общие признаки и распознал одного человека на двух фото, это сможет сделать и модель. Без вариантов.

Поэтому работы вроде описанной выше могут быть полезны лишь в частной практике, когда относительно небольшое число людей использует его, чтобы скрыть себя в более крупной базе пользователей от вполне конкретного сервиса. Панацеей от алгоритмов распознавания это не станет.
Интернет сближает людей, OSINT делает информацию еще доступнее. Поэтому это скорее выбор человека между полной публичностью и полной скрытностью

Ответить
Развернуть ветку
Dmitry Myachin

Именно _сейчас_ проблема, которую эксплуатирует решение из статьи, относится к фундаментальным. В будущем ждём новые подходы, лишённые этой проблемы, но _сейчас_, в текущем развитии (а также все десятилетия до сейчас), это решение является серебряной пулей.

Ответить
Развернуть ветку
Никита Хисматов

А что именно за проблема? дайте ссылку, плез

Ответить
Развернуть ветку
Dmitry Myachin
Ответить
Развернуть ветку
Никита Хисматов

спасибо

Ответить
Развернуть ветку
70 комментариев
Раскрывать всегда