Инженеры из университета в Чикаго создали сервис для защиты фотографий от распознавания лиц — он уже «обманул» Amazon Статьи редакции
Они рассчитывают, что пользователи массово начнут менять фотографии перед загрузкой в сеть, чтобы «отравить» базы данных систем распознавания.
Компьютерные инженеры из Чикагского университета разработали инструмент Fawkes, который маскирует фотографии для защиты от систем распознавания лиц, сообщает The New York Times.
Для этого Fawkes меняет — или «маскирует», как говорят создатели инструмента — изображение на уровне пикселей, объясняет издание. За месяц программное обеспечение скачали больше 50 тысяч раз с сайта для разработчиков.
В ходе испытаний исследователи смогли обмануть системы распознавания лиц от Amazon, Microsoft и китайской технологической компании Megvii. Однако изменения видны невооружённым глазом, утверждает The New York Times.
Сейчас исследователи работают над бесплатной версией для пользователей без навыков программирования, пишет издание.
Приложение предназначено для широкого пользования, чтобы «отравить точность» баз данных, собираемых системами распознавания лиц в интернете, говорят создатели.
Исследователи рассчитывают, что в идеале люди начнут маскировать все загружаемые в интернет изображения. Тогда компании вроде Clearview не смогут создавать работоспособную базу данных, потому что реальная фотография человека не будет соответствовать образцу в «отравленной» базе.
«Наша цель — заставить Clearview уйти», — заявил Бен Чжао, профессор информатики в Чикагском университете.
Стартап Clearview AI собирает «миллиарды» фотографий в интернете для создания базы, которую используют частные компании, полиция и другие организации, напоминает издание.
Прекрасно
Новый софт, который маскирует незначительные признаки, но оставляет важные признаки, по которым люди узнают людей.
Он прекрасно пополнит базы для обучения ML моделей, чтобы они стали еще лучше работать.
Нет. Одна из фич таких вот решений (это, к слову, не первое) в том, что полученные результаты непригодны для обучения моделей. Можно хоть миллион модифицированных вариантов одного человека засунуть и всё равно машина не сможет узнавать этого человека на миллион первом варианте. В этом и прелесть.
То есть изменённые варианты просто непригодны для обучения. Более того, они будут только ухудшать детект! То есть будут _отравлять_ датасет.
ОДНАКО! Нужно понимать, что речь идёт именно о распознавании конкретных людей. Если же просто сравнивать оригинальное изображение и найти его отравленную копию (как тот же VisiPics) — тут проблем никаких не будет. Но такой задачи и не стоит.
Как раз пришел сюда это написать, если все начнут его использовать, его смысл исчезнет ¯\_(ツ)_/¯
Комментарий недоступен
Можешь объяснить, что именно она делает языком математики? Я пойму.
Даже VC согласен:
Женщина Путин похожа на барби
Крутой софт
Это не работает. Рассчитано глушить какую-то одну конкретную нейросеточку.
Игрались с коллегой с этой софтиной, но всегда получались абсолютно странные фото, как будто ты или бухой или под наркотой... Плюс странная история с бровями
Посмотри на себя как будто ты бухой или под наркотой. Новые всратые масочки для Инстаграм
Вывод: не стоит играться с этой софтиной будучи бухим и под наркотой.
Комментарий недоступен
v.1
Это был реализованный фич-реквест от пользователей))
Сначала мы изобретали софт для распознавания лиц!
Теперь мы его уничтожим...
В это время фотки в соц.сетях
Надеюсь, оригиналы фото не улетают в Чикаго на сервера 🤔 А то у всех в базах "отравленная" версия, кроме... 😏
... кроме чикагской мафии
"Однако изменения видны невооружённым глазом" - я не вижу разницы а вы?
я уж начал беспокоиться, что я один такой
Комментарий недоступен
Этот софт также начнёт собирать свою базу :)
AI это плохо видит, пусть тогда камера с AI смотрит на монитор. Думаю, что процент точного распознания будет выше. ;)
Да просто на Депозит пусть грузят, он зашакалит изображение так, что останется только важная инфа
И прям никак AI на них не натаскать?
а сами-то как думаете :3
Выше я уже ответил
Классная вещь
Вот это уже интересно)
Штука конечно интересная, а мошенники этим не воспользуются)
Комментарий недоступен
Все это подобное я уже наблюдаю с середины 90-х со школы...
Каждое следующее поколение вирусов и всякого зло-ware, обходит предыдущее поколение антивирусов...
Надеятся что будет "таблетка" - по большему глупо, а по меньшей мере наивно...
Очередное спиральное движение...
Причем будут как перебежчики и "казачки", так и те кто и лечит и калечит...
Проблема описать "новую модель", ее возможные сигнатуры, добавить обработку дополнительной фильтрации... это задача на время, не вопрос проблемного поиска решения...
но это полезная информация, я за дополнительное освещение подобной проблематики и актуальности разработок..., иначе скоро каждый унитаз будет отказывать поднимать крышку, пока ему там фейсом в камеру не сунешь
Нет. Одна из фич таких вот решений (это, к слову, не первое) в том, что полученные результаты непригодны для обучения моделей. Можно хоть миллион модифицированных вариантов одного человека засунуть и всё равно машина не сможет узнавать этого человека на миллион первом варианте. В этом и прелесть. И после этого в Космолоте https://brody.com.ua/ зарабатывать.
А Вы сами проверяли данный софт? Он действительно защищает от "Microsoft Azure Face API", "Amazon Rekognition Face Verification", "Face++ Face Search API" ?