Apple начнёт локально проверять фото на iPhone на предмет жестокого обращения с детьми — FT Статьи редакции

Сперва функцию внедрят в США, утверждают источники.

О том, что Apple планирует реализовать опцию сканирования локальных медиатек пользователей iPhone, сообщили издание Financial Times и специалист в области криптографии Мэтью Грин.

Продолжение. Apple усилит защиту детей — начнёт размывать откровенные изображения в «Сообщениях», сообщать родителям об отправке сексуальных снимков, проверять контент в iCloud на сексуальное насилие над детьми и рассказывать в Siri о безопасности.
  • Функция neuralMatch будет локально сканировать фотографии пользователей на iPhone без передачи данных в облачное хранилище. Если система определит, что владелец iPhone хранит незаконные изображения, она предупредит сотрудников Apple.
  • Специалисты Apple обучили нейросеть neuralMatch на 200 000 изображениях, предоставленных Национальным центром поиска пропавших и эксплуатируемых детей США. Функция будет сравнивать фотографии пользователей с базой данных снимков с помощью алгоритмов хэширования.
  • Каждый загружаемый в iCloud снимок будет получать метку, которая укажет — подозрительный ли кадр или нет. Как только определённое количество фотографий будут помечены подозрительными, Apple расшифрует такие снимки и обратится в органы при необходимости.
  • Профессор Университета Джона Хопкинса и криптограф Мэтью Грин написал, что сразу несколько его источников подтвердили планы Apple. По его словам, инструмент может помочь с поиском незаконных снимков, но если он попадёт в руки мошенников, то они могут использовать его в своих интересах. Кроме того, он подчеркнул, что алгоритмы хэширования могут выдавать ложные результаты.
  • Apple уже сканирует фотографии в iCloud на предмет насилия над детьми, о чём компания рассказала в январе 2020 года, не уточнив, какую именно технологию она использует. Многие компании, включая Facebook, Twitter и Google, применяют для этой цели систему PhotoDNA, которая проверяет изображения по базе данных ранее распознанных снимков используя технологию хэширования.
  • Apple может рассказать подробности о технологии neuralMatch в ближайшие дни, сообщили источники Financial Times.

Ранее пользователи iPhone обнаружили в бета-версии iOS 15 неанонсированную функцию, которая автоматически удаляет блики с фотографий уже после съёмки.

0
312 комментариев
Написать комментарий...
Александр Цай

Щас начнут орать, а как же неприкосновенность персональных данных, которые в переходе уже походу можно купить. Банки вон, как по мне передают на зоны для обзвона.

Ответить
Развернуть ветку
sardelkin

а фанаты apple как обычно будут отвечать что это для их же пользы

Ответить
Развернуть ветку
K. A.

Сами придумали, сами разнесли? Я обычно поддерживаю Apple в большинстве их политик (например, возможность устанавливать приложения только из App Store), но есть ряд вещей, где я с ними не соглашаюсь.

Данное их решение в корне неверно и у него будут колоссальные негативные последствия, даже если они передумают запускать эту фичу.

Как минимум, правительства, которые раньше думали, что e2e — это приговор и нужно требовать какие-то ключи, теперь увидят, что достаточно поставить СОРМ на каждый телефон и делать on device matching. А правила матчинга обязать вендора использовать переданные гос органами.

А дальше вопрос законов быстро решается

Ответить
Развернуть ветку
309 комментариев
Раскрывать всегда