Apple начнёт локально проверять фото на iPhone на предмет жестокого обращения с детьми — FT

Сперва функцию внедрят в США, утверждают источники.

О том, что Apple планирует реализовать опцию сканирования локальных медиатек пользователей iPhone, сообщили издание Financial Times и специалист в области криптографии Мэтью Грин.

Продолжение. Apple усилит защиту детей — начнёт размывать откровенные изображения в «Сообщениях», сообщать родителям об отправке сексуальных снимков, проверять контент в iCloud на сексуальное насилие над детьми и рассказывать в Siri о безопасности.
  • Функция neuralMatch будет локально сканировать фотографии пользователей на iPhone без передачи данных в облачное хранилище. Если система определит, что владелец iPhone хранит незаконные изображения, она предупредит сотрудников Apple.
  • Специалисты Apple обучили нейросеть neuralMatch на 200 000 изображениях, предоставленных Национальным центром поиска пропавших и эксплуатируемых детей США. Функция будет сравнивать фотографии пользователей с базой данных снимков с помощью алгоритмов хэширования.
  • Каждый загружаемый в iCloud снимок будет получать метку, которая укажет — подозрительный ли кадр или нет. Как только определённое количество фотографий будут помечены подозрительными, Apple расшифрует такие снимки и обратится в органы при необходимости.
  • Профессор Университета Джона Хопкинса и криптограф Мэтью Грин написал, что сразу несколько его источников подтвердили планы Apple. По его словам, инструмент может помочь с поиском незаконных снимков, но если он попадёт в руки мошенников, то они могут использовать его в своих интересах. Кроме того, он подчеркнул, что алгоритмы хэширования могут выдавать ложные результаты.
  • Apple уже сканирует фотографии в iCloud на предмет насилия над детьми, о чём компания рассказала в январе 2020 года, не уточнив, какую именно технологию она использует. Многие компании, включая Facebook, Twitter и Google, применяют для этой цели систему PhotoDNA, которая проверяет изображения по базе данных ранее распознанных снимков используя технологию хэширования.
  • Apple может рассказать подробности о технологии neuralMatch в ближайшие дни, сообщили источники Financial Times.

Ранее пользователи iPhone обнаружили в бета-версии iOS 15 неанонсированную функцию, которая автоматически удаляет блики с фотографий уже после съёмки.

6161
312 комментария

Ха-ха.

250
Ответить
61
Ответить

Как по мне - крайне нежелательная и опасная функция. Педофилы просто не будут пользоваться айфонами, а прецедент шпионажа за пользователями, не делают ли они что-то, что властям не по нраву, уже будет создан.

Опять же не надо исключать false positive, когда «подозрение не подтвердилось, но осадочек остался». Как будет говорить прокурор: «обвиняемый уже попадал в поле зрения правоохранительных органов по прозрению в педофилии».

152
Ответить

Завтра каждая банановая республика обяжет Apple сообщать о фотках, подпадающих под кастомные локальные критерии, а то чего это правительству США так можно, а местному вождю - так нельзя

60
Ответить

Так всё просто, не надо пользоваться iphone. Но думаю остальные скоро подтянуться и всё.

11
Ответить

Первыми обрадуются контент-менеджеры производителей детской одежды :) а после них семейные фотографы...

12
Ответить