Apple начнёт локально проверять фото на iPhone на предмет жестокого обращения с детьми — FT Статьи редакции
Сперва функцию внедрят в США, утверждают источники.
О том, что Apple планирует реализовать опцию сканирования локальных медиатек пользователей iPhone, сообщили издание Financial Times и специалист в области криптографии Мэтью Грин.
- Функция neuralMatch будет локально сканировать фотографии пользователей на iPhone без передачи данных в облачное хранилище. Если система определит, что владелец iPhone хранит незаконные изображения, она предупредит сотрудников Apple.
- Специалисты Apple обучили нейросеть neuralMatch на 200 000 изображениях, предоставленных Национальным центром поиска пропавших и эксплуатируемых детей США. Функция будет сравнивать фотографии пользователей с базой данных снимков с помощью алгоритмов хэширования.
- Каждый загружаемый в iCloud снимок будет получать метку, которая укажет — подозрительный ли кадр или нет. Как только определённое количество фотографий будут помечены подозрительными, Apple расшифрует такие снимки и обратится в органы при необходимости.
- Профессор Университета Джона Хопкинса и криптограф Мэтью Грин написал, что сразу несколько его источников подтвердили планы Apple. По его словам, инструмент может помочь с поиском незаконных снимков, но если он попадёт в руки мошенников, то они могут использовать его в своих интересах. Кроме того, он подчеркнул, что алгоритмы хэширования могут выдавать ложные результаты.
- Apple уже сканирует фотографии в iCloud на предмет насилия над детьми, о чём компания рассказала в январе 2020 года, не уточнив, какую именно технологию она использует. Многие компании, включая Facebook, Twitter и Google, применяют для этой цели систему PhotoDNA, которая проверяет изображения по базе данных ранее распознанных снимков используя технологию хэширования.
- Apple может рассказать подробности о технологии neuralMatch в ближайшие дни, сообщили источники Financial Times.
Ранее пользователи iPhone обнаружили в бета-версии iOS 15 неанонсированную функцию, которая автоматически удаляет блики с фотографий уже после съёмки.
2
показа
26K
открытий
1
репост
Посмотрел на первоисточники и ничего не понял:
1. The Verge пишет «neuralMatch which was trained using 200,000 images», то есть натренированная нейросеть ищет плохое. А нейросети до сих пор принимают котов за собак, то есть будет куча ложноположительных результатов, и тогда ваши нюдсы отправятся сотрудникам Apple, если алгоритмы примут их за детское порно.
https://www.theverge.com/2021/8/5/22611305/apple-scan-photos-iphones-icloud-child-abuse-imagery-neuralmatch
2. Но Apple пишет на сайте не про нейросети, а только про сличение хэшей фотографий с базой данных запрещённых изображений. Тогда законопослушным гражданам вроде нечего бояться, «плохих» применений у такой технологии куда меньше, и сличать по хэшу — это довольно конфиденциально. Но тогда система не найдёт людей, снимающих дома детское порно на айфон — только людей, которые сохранили из интернета на айфон уже известную картинку. А кто вообще сейчас сохраняет порно локально?
https://www.apple.com/child-safety/
И что там на самом деле (журналисты допридумали или Apple недоговаривает) — непонятно.
Впринципе, они могут все фото на веб страницах, загружаемых браузером проверять по хешу.
Хм, интересная мысль. По текущему тексту на сайте Apple получается, что проверяют только локальное, но гипотетически в будущем это могут изменить. С другой стороны, если человеку прислали ссылку «посмотри на котиков», он открыл, а там внезапно запрещённые изображения, что тогда? Так можно кого угодно подставить.
Вспомнилось как раньше бывало играешь в контру на сервере а там у кого-то кастомный spray с детским порно и вуаля оно уже у тебя на компе