{"id":14262,"url":"\/distributions\/14262\/click?bit=1&hash=8ff33b918bfe3f5206b0198c93dd25bdafcdc76b2eaa61d9664863bd76247e56","title":"\u041f\u0440\u0435\u0434\u043b\u043e\u0436\u0438\u0442\u0435 \u041c\u043e\u0441\u043a\u0432\u0435 \u0438\u043d\u043d\u043e\u0432\u0430\u0446\u0438\u044e \u0438 \u043f\u043e\u043b\u0443\u0447\u0438\u0442\u0435 \u0434\u043e 1,5 \u043c\u043b\u043d \u0440\u0443\u0431\u043b\u0435\u0439","buttonText":"\u041f\u043e\u0434\u0440\u043e\u0431\u043d\u0435\u0435","imageUuid":"726c984a-5b07-5c75-81f7-6664571134e6"}

Инженеры из университета в Чикаго создали сервис для защиты фотографий от распознавания лиц — он уже «обманул» Amazon Статьи редакции

Они рассчитывают, что пользователи массово начнут менять фотографии перед загрузкой в сеть, чтобы «отравить» базы данных систем распознавания.

Компьютерные инженеры из Чикагского университета разработали инструмент Fawkes, который маскирует фотографии для защиты от систем распознавания лиц, сообщает The New York Times.

Для этого Fawkes меняет — или «маскирует», как говорят создатели инструмента — изображение на уровне пикселей, объясняет издание. За месяц программное обеспечение скачали больше 50 тысяч раз с сайта для разработчиков.

The New York Times

В ходе испытаний исследователи смогли обмануть системы распознавания лиц от Amazon, Microsoft и китайской технологической компании Megvii. Однако изменения видны невооружённым глазом, утверждает The New York Times.

Слева — оригинальная фотография редактора The New York Times, справа — «замаскированная» версия The New York Times

Сейчас исследователи работают над бесплатной версией для пользователей без навыков программирования, пишет издание.

Приложение предназначено для широкого пользования, чтобы «отравить точность» баз данных, собираемых системами распознавания лиц в интернете, говорят создатели.

Исследователи рассчитывают, что в идеале люди начнут маскировать все загружаемые в интернет изображения. Тогда компании вроде Clearview не смогут создавать работоспособную базу данных, потому что реальная фотография человека не будет соответствовать образцу в «отравленной» базе.

«Наша цель — заставить Clearview уйти», — заявил Бен Чжао, профессор информатики в Чикагском университете.

Стартап Clearview AI собирает «миллиарды» фотографий в интернете для создания базы, которую используют частные компании, полиция и другие организации, напоминает издание.

0
73 комментария
Написать комментарий...
Кирилл Костромин

Прекрасно
Новый софт, который маскирует незначительные признаки, но оставляет важные признаки, по которым люди узнают людей.
Он прекрасно пополнит базы для обучения ML моделей, чтобы они стали еще лучше работать.

Ответить
Развернуть ветку
Dmitry Myachin

Нет. Одна из фич таких вот решений (это, к слову, не первое) в том, что полученные результаты непригодны для обучения моделей. Можно хоть миллион модифицированных вариантов одного человека засунуть и всё равно машина не сможет узнавать этого человека на миллион первом варианте. В этом и прелесть.
То есть изменённые варианты просто непригодны для обучения. Более того, они будут только ухудшать детект! То есть будут _отравлять_ датасет.

ОДНАКО! Нужно понимать, что речь идёт именно о распознавании конкретных людей. Если же просто сравнивать оригинальное изображение и найти его отравленную копию (как тот же VisiPics) — тут проблем никаких не будет. Но такой задачи и не стоит.

Ответить
Развернуть ветку
18 комментариев
Denis Shiryaev

Как раз пришел сюда это написать, если все начнут его использовать, его смысл исчезнет ¯\_(ツ)_/¯

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
2 комментария
Алексей Смолярчук

Можешь объяснить, что именно она делает языком математики? Я пойму.

Ответить
Развернуть ветку
2 комментария
Dear Moscow,
Fawkes меняет — или «маскирует», как говорят создатели инструмента — изображение на уровне пикселей
Ответить
Развернуть ветку
Dear Moscow,

Даже VC согласен:

Ответить
Развернуть ветку
3 комментария
Shlomo Goldenberg

Женщина Путин похожа на барби

Ответить
Развернуть ветку
4 комментария
Alexander Solokhin

Крутой софт

Ответить
Развернуть ветку
Сергей Пеленев

Это не работает. Рассчитано глушить какую-то одну конкретную нейросеточку.

Ответить
Развернуть ветку
Nikolay Schamberg

Игрались с коллегой с этой софтиной, но всегда получались абсолютно странные фото, как будто ты или бухой или под наркотой... Плюс странная история с бровями

Ответить
Развернуть ветку
Юрий Б.

Посмотри на себя как будто ты бухой или под наркотой. Новые всратые масочки для Инстаграм 

Ответить
Развернуть ветку
1 комментарий
Никита Хисматов

Вывод: не стоит играться с этой софтиной будучи бухим и под наркотой.

Ответить
Развернуть ветку
1 комментарий
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Щукин Сергей

v.1

Ответить
Развернуть ветку
Анон Плиз

Это был реализованный фич-реквест от пользователей))

Ответить
Развернуть ветку
Seller of Happiness

Сначала мы изобретали софт для распознавания лиц!

Ответить
Развернуть ветку
DonCineman

Теперь мы его уничтожим...

Ответить
Развернуть ветку
1 комментарий
Invictus Domini

В это время фотки в соц.сетях

Ответить
Развернуть ветку
Анон Плиз

Надеюсь, оригиналы фото не улетают в Чикаго на сервера 🤔 А то у всех в базах "отравленная" версия, кроме... 😏

Ответить
Развернуть ветку
Pixel Lens

... кроме чикагской мафии

Ответить
Развернуть ветку
John Fima

"Однако изменения видны невооружённым глазом" - я не вижу разницы а вы?

Ответить
Развернуть ветку
Igor Nemenonok

я уж начал беспокоиться, что я один такой

Ответить
Развернуть ветку
1 комментарий
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Niko Nick

Этот софт также начнёт собирать свою базу :)

Ответить
Развернуть ветку
Sergei Timofeyev

AI это плохо видит, пусть тогда камера с AI смотрит на монитор. Думаю, что процент точного распознания будет выше. ;)

Ответить
Развернуть ветку
Help lawyer

Да просто на Депозит пусть грузят, он зашакалит изображение так, что останется только важная инфа

Ответить
Развернуть ветку
1 комментарий
Shlomo Goldenberg

И прям никак AI на них не натаскать?

Ответить
Развернуть ветку
Pixel Lens

а сами-то как думаете :3

Ответить
Развернуть ветку
2 комментария
Dmitry Myachin

Выше я уже ответил

Ответить
Развернуть ветку
Александр Селиванов

Классная вещь

Ответить
Развернуть ветку
Егор Ермаков

Вот это уже интересно)

Ответить
Развернуть ветку
Заитов Роберт

Штука конечно интересная, а мошенники этим не воспользуются)

Ответить
Развернуть ветку
Mike Amir

+

Ответить
Развернуть ветку
Vitaly Zubarev

Все это подобное я уже наблюдаю с середины 90-х со школы...
Каждое следующее поколение вирусов и всякого зло-ware, обходит предыдущее поколение антивирусов... 
Надеятся что будет "таблетка" - по большему глупо, а по меньшей мере наивно...
Очередное спиральное движение...
Причем будут как перебежчики и "казачки", так и те кто и лечит и калечит...
Проблема описать "новую модель", ее возможные сигнатуры, добавить обработку дополнительной фильтрации... это задача на время, не вопрос проблемного поиска решения...
но это полезная информация, я за дополнительное освещение подобной проблематики и актуальности разработок..., иначе скоро каждый унитаз будет отказывать поднимать крышку, пока ему там фейсом в камеру не сунешь

Ответить
Развернуть ветку
Миша Зуенко

Нет. Одна из фич таких вот решений (это, к слову, не первое) в том, что полученные результаты непригодны для обучения моделей. Можно хоть миллион модифицированных вариантов одного человека засунуть и всё равно машина не сможет узнавать этого человека на миллион первом варианте. В этом и прелесть. И после этого в Космолоте https://brody.com.ua/ зарабатывать.

Ответить
Развернуть ветку
roman italian

А Вы сами проверяли данный софт? Он действительно защищает от "Microsoft Azure Face API", "Amazon Rekognition Face Verification", "Face++ Face Search API" ?

Ответить
Развернуть ветку
70 комментариев
Раскрывать всегда