Apple начнёт локально проверять фото на iPhone на предмет жестокого обращения с детьми — FT Статьи редакции

Сперва функцию внедрят в США, утверждают источники.

О том, что Apple планирует реализовать опцию сканирования локальных медиатек пользователей iPhone, сообщили издание Financial Times и специалист в области криптографии Мэтью Грин.

Продолжение. Apple усилит защиту детей — начнёт размывать откровенные изображения в «Сообщениях», сообщать родителям об отправке сексуальных снимков, проверять контент в iCloud на сексуальное насилие над детьми и рассказывать в Siri о безопасности.
  • Функция neuralMatch будет локально сканировать фотографии пользователей на iPhone без передачи данных в облачное хранилище. Если система определит, что владелец iPhone хранит незаконные изображения, она предупредит сотрудников Apple.
  • Специалисты Apple обучили нейросеть neuralMatch на 200 000 изображениях, предоставленных Национальным центром поиска пропавших и эксплуатируемых детей США. Функция будет сравнивать фотографии пользователей с базой данных снимков с помощью алгоритмов хэширования.
  • Каждый загружаемый в iCloud снимок будет получать метку, которая укажет — подозрительный ли кадр или нет. Как только определённое количество фотографий будут помечены подозрительными, Apple расшифрует такие снимки и обратится в органы при необходимости.
  • Профессор Университета Джона Хопкинса и криптограф Мэтью Грин написал, что сразу несколько его источников подтвердили планы Apple. По его словам, инструмент может помочь с поиском незаконных снимков, но если он попадёт в руки мошенников, то они могут использовать его в своих интересах. Кроме того, он подчеркнул, что алгоритмы хэширования могут выдавать ложные результаты.
  • Apple уже сканирует фотографии в iCloud на предмет насилия над детьми, о чём компания рассказала в январе 2020 года, не уточнив, какую именно технологию она использует. Многие компании, включая Facebook, Twitter и Google, применяют для этой цели систему PhotoDNA, которая проверяет изображения по базе данных ранее распознанных снимков используя технологию хэширования.
  • Apple может рассказать подробности о технологии neuralMatch в ближайшие дни, сообщили источники Financial Times.

Ранее пользователи iPhone обнаружили в бета-версии iOS 15 неанонсированную функцию, которая автоматически удаляет блики с фотографий уже после съёмки.

0
312 комментариев
Написать комментарий...
Labeling

Как по мне - крайне нежелательная и опасная функция. Педофилы просто не будут пользоваться айфонами, а прецедент шпионажа за пользователями, не делают ли они что-то, что властям не по нраву, уже будет создан.

Опять же не надо исключать false positive, когда «подозрение не подтвердилось, но осадочек остался». Как будет говорить прокурор: «обвиняемый уже попадал в поле зрения правоохранительных органов по прозрению в педофилии».

Ответить
Развернуть ветку
Sergei spiridonov

Первыми обрадуются контент-менеджеры производителей детской одежды :) а после них семейные фотографы...

Ответить
Развернуть ветку
Chris Caro

Для порно индустрии это проблема. Бывают 18-ти летние выглядят как 14-16... А также в целом для муз. индустрии и разных клипов с эротическими фотосессиями. Facebook уже давно блокирует все искусство и фото...

Ответить
Развернуть ветку
Ренат Ренатович
Для порно индустрии это проблема. Бывают 18-ти летние выглядят как 14-16...

Проблема в другом. На 14-16 и даже младше есть большой платежеспособный спрос. Порно индустрия специально ищет 18-ти летних, которые выглядят как 14-16, чтобы если начнут предъявлять, тут же прикрыться паспортом с нужным возрастом.

Ответить
Развернуть ветку
309 комментариев
Раскрывать всегда