Apple начнёт локально проверять фото на iPhone на предмет жестокого обращения с детьми — FT Статьи редакции

Сперва функцию внедрят в США, утверждают источники.

О том, что Apple планирует реализовать опцию сканирования локальных медиатек пользователей iPhone, сообщили издание Financial Times и специалист в области криптографии Мэтью Грин.

Продолжение. Apple усилит защиту детей — начнёт размывать откровенные изображения в «Сообщениях», сообщать родителям об отправке сексуальных снимков, проверять контент в iCloud на сексуальное насилие над детьми и рассказывать в Siri о безопасности.
  • Функция neuralMatch будет локально сканировать фотографии пользователей на iPhone без передачи данных в облачное хранилище. Если система определит, что владелец iPhone хранит незаконные изображения, она предупредит сотрудников Apple.
  • Специалисты Apple обучили нейросеть neuralMatch на 200 000 изображениях, предоставленных Национальным центром поиска пропавших и эксплуатируемых детей США. Функция будет сравнивать фотографии пользователей с базой данных снимков с помощью алгоритмов хэширования.
  • Каждый загружаемый в iCloud снимок будет получать метку, которая укажет — подозрительный ли кадр или нет. Как только определённое количество фотографий будут помечены подозрительными, Apple расшифрует такие снимки и обратится в органы при необходимости.
  • Профессор Университета Джона Хопкинса и криптограф Мэтью Грин написал, что сразу несколько его источников подтвердили планы Apple. По его словам, инструмент может помочь с поиском незаконных снимков, но если он попадёт в руки мошенников, то они могут использовать его в своих интересах. Кроме того, он подчеркнул, что алгоритмы хэширования могут выдавать ложные результаты.
  • Apple уже сканирует фотографии в iCloud на предмет насилия над детьми, о чём компания рассказала в январе 2020 года, не уточнив, какую именно технологию она использует. Многие компании, включая Facebook, Twitter и Google, применяют для этой цели систему PhotoDNA, которая проверяет изображения по базе данных ранее распознанных снимков используя технологию хэширования.
  • Apple может рассказать подробности о технологии neuralMatch в ближайшие дни, сообщили источники Financial Times.

Ранее пользователи iPhone обнаружили в бета-версии iOS 15 неанонсированную функцию, которая автоматически удаляет блики с фотографий уже после съёмки.

0
312 комментариев
Написать комментарий...
Евгений Трифонов

Посмотрел на первоисточники и ничего не понял:

1. The Verge пишет «neuralMatch which was trained using 200,000 images», то есть натренированная нейросеть ищет плохое. А нейросети до сих пор принимают котов за собак, то есть будет куча ложноположительных результатов, и тогда ваши нюдсы отправятся сотрудникам Apple, если алгоритмы примут их за детское порно.

https://www.theverge.com/2021/8/5/22611305/apple-scan-photos-iphones-icloud-child-abuse-imagery-neuralmatch

2. Но Apple пишет на сайте не про нейросети, а только про сличение хэшей фотографий с базой данных запрещённых изображений. Тогда законопослушным гражданам вроде нечего бояться, «плохих» применений у такой технологии куда меньше, и сличать по хэшу — это довольно конфиденциально. Но тогда система не найдёт людей, снимающих дома детское порно на айфон — только людей, которые сохранили из интернета на айфон уже известную картинку. А кто вообще сейчас сохраняет порно локально?

https://www.apple.com/child-safety/

И что там на самом деле (журналисты допридумали или Apple недоговаривает) — непонятно.

Ответить
Развернуть ветку
Sergey Bespalov

Впринципе, они могут все фото на веб страницах, загружаемых браузером проверять по хешу.

Ответить
Развернуть ветку
Евгений Трифонов

Хм, интересная мысль. По текущему тексту на сайте Apple получается, что проверяют только локальное, но гипотетически в будущем это могут изменить. С другой стороны, если человеку прислали ссылку «посмотри на котиков», он открыл, а там внезапно запрещённые изображения, что тогда? Так можно кого угодно подставить.

Ответить
Развернуть ветку
Nikita Bukoros

Вспомнилось как раньше бывало играешь в контру на сервере а там у кого-то кастомный spray с детским порно и вуаля оно уже у тебя на компе

Ответить
Развернуть ветку
309 комментариев
Раскрывать всегда