Apple начнёт локально проверять фото на iPhone на предмет жестокого обращения с детьми — FT Статьи редакции

Сперва функцию внедрят в США, утверждают источники.

О том, что Apple планирует реализовать опцию сканирования локальных медиатек пользователей iPhone, сообщили издание Financial Times и специалист в области криптографии Мэтью Грин.

Продолжение. Apple усилит защиту детей — начнёт размывать откровенные изображения в «Сообщениях», сообщать родителям об отправке сексуальных снимков, проверять контент в iCloud на сексуальное насилие над детьми и рассказывать в Siri о безопасности.
  • Функция neuralMatch будет локально сканировать фотографии пользователей на iPhone без передачи данных в облачное хранилище. Если система определит, что владелец iPhone хранит незаконные изображения, она предупредит сотрудников Apple.
  • Специалисты Apple обучили нейросеть neuralMatch на 200 000 изображениях, предоставленных Национальным центром поиска пропавших и эксплуатируемых детей США. Функция будет сравнивать фотографии пользователей с базой данных снимков с помощью алгоритмов хэширования.
  • Каждый загружаемый в iCloud снимок будет получать метку, которая укажет — подозрительный ли кадр или нет. Как только определённое количество фотографий будут помечены подозрительными, Apple расшифрует такие снимки и обратится в органы при необходимости.
  • Профессор Университета Джона Хопкинса и криптограф Мэтью Грин написал, что сразу несколько его источников подтвердили планы Apple. По его словам, инструмент может помочь с поиском незаконных снимков, но если он попадёт в руки мошенников, то они могут использовать его в своих интересах. Кроме того, он подчеркнул, что алгоритмы хэширования могут выдавать ложные результаты.
  • Apple уже сканирует фотографии в iCloud на предмет насилия над детьми, о чём компания рассказала в январе 2020 года, не уточнив, какую именно технологию она использует. Многие компании, включая Facebook, Twitter и Google, применяют для этой цели систему PhotoDNA, которая проверяет изображения по базе данных ранее распознанных снимков используя технологию хэширования.
  • Apple может рассказать подробности о технологии neuralMatch в ближайшие дни, сообщили источники Financial Times.

Ранее пользователи iPhone обнаружили в бета-версии iOS 15 неанонсированную функцию, которая автоматически удаляет блики с фотографий уже после съёмки.

0
312 комментариев
Написать комментарий...
Джеймс Бонд

И конечно же больше всех за владельцев продукции эпл пекутся владельцы андроидов на сяоми, оппо и пр.

Забавно смотреть на горящие пуканы "ценителей топа за свои деньги"

Ответить
Развернуть ветку
K. A.

У меня iPhone уже много лет. Я против этой истории. Это бекдор к зашифрованным данным на телефоне.

Тот же РКН начинался тоже под предлогом защиты детей, а потом быстро перешёл к поиску неугодных вообще.

Этот инструмент неизбежно начнёт развиваться под давлением правительств различных стран в ту же сторону. Поиск «экстремистских» изображений и сообщений, анализ звонков и пр.

Ответить
Развернуть ветку
309 комментариев
Раскрывать всегда