Apple начнёт локально проверять фото на iPhone на предмет жестокого обращения с детьми — FT Статьи редакции

Сперва функцию внедрят в США, утверждают источники.

О том, что Apple планирует реализовать опцию сканирования локальных медиатек пользователей iPhone, сообщили издание Financial Times и специалист в области криптографии Мэтью Грин.

Продолжение. Apple усилит защиту детей — начнёт размывать откровенные изображения в «Сообщениях», сообщать родителям об отправке сексуальных снимков, проверять контент в iCloud на сексуальное насилие над детьми и рассказывать в Siri о безопасности.
  • Функция neuralMatch будет локально сканировать фотографии пользователей на iPhone без передачи данных в облачное хранилище. Если система определит, что владелец iPhone хранит незаконные изображения, она предупредит сотрудников Apple.
  • Специалисты Apple обучили нейросеть neuralMatch на 200 000 изображениях, предоставленных Национальным центром поиска пропавших и эксплуатируемых детей США. Функция будет сравнивать фотографии пользователей с базой данных снимков с помощью алгоритмов хэширования.
  • Каждый загружаемый в iCloud снимок будет получать метку, которая укажет — подозрительный ли кадр или нет. Как только определённое количество фотографий будут помечены подозрительными, Apple расшифрует такие снимки и обратится в органы при необходимости.
  • Профессор Университета Джона Хопкинса и криптограф Мэтью Грин написал, что сразу несколько его источников подтвердили планы Apple. По его словам, инструмент может помочь с поиском незаконных снимков, но если он попадёт в руки мошенников, то они могут использовать его в своих интересах. Кроме того, он подчеркнул, что алгоритмы хэширования могут выдавать ложные результаты.
  • Apple уже сканирует фотографии в iCloud на предмет насилия над детьми, о чём компания рассказала в январе 2020 года, не уточнив, какую именно технологию она использует. Многие компании, включая Facebook, Twitter и Google, применяют для этой цели систему PhotoDNA, которая проверяет изображения по базе данных ранее распознанных снимков используя технологию хэширования.
  • Apple может рассказать подробности о технологии neuralMatch в ближайшие дни, сообщили источники Financial Times.

Ранее пользователи iPhone обнаружили в бета-версии iOS 15 неанонсированную функцию, которая автоматически удаляет блики с фотографий уже после съёмки.

0
312 комментариев
Написать комментарий...
Labeling

Как по мне - крайне нежелательная и опасная функция. Педофилы просто не будут пользоваться айфонами, а прецедент шпионажа за пользователями, не делают ли они что-то, что властям не по нраву, уже будет создан.

Опять же не надо исключать false positive, когда «подозрение не подтвердилось, но осадочек остался». Как будет говорить прокурор: «обвиняемый уже попадал в поле зрения правоохранительных органов по прозрению в педофилии».

Ответить
Развернуть ветку
ЯжПрограммист

Так всё просто, не надо пользоваться iphone. Но думаю остальные скоро подтянуться и всё.

Ответить
Развернуть ветку
Chris Caro

Просто не использовать камеру. Notes можно запаролить и вроде у Apple нет доступа к ним, если не использовать iCloud Backup...

Ответить
Развернуть ветку
passer2003
Просто не использовать камеру.

Вы думаете что если вы сами не будете пользоваться камерой, гребаный Эпл не сможет сам делать фото?

Вы наивный человек - они могут делать снимки с вашей камеры без вашего участия.
Одно время так делал Гугл кстати.

Ответить
Развернуть ветку
Chris Caro

А есть прецентеднты? Не слышал о таком... Раньше террористы использовали iPhones как более надежную систему...

Ответить
Развернуть ветку
passer2003
Раньше террористы использовали iPhones как более надежную систему...

Лол.

Ну фанатики Эпла могут верить во все что угодно - у них айфон головного мозга и отсутствует мало-мальски критическое мышление напрочь.

На террористов это тоже распространяеца.

Ответить
Развернуть ветку
passer2003

Были прецеденты с гуглом, несколько лет назад.

Если вы входили в свой аккаунт с нового устройства, то гугл незаметно вас фотографировал с этого смартфона  и высылал письмо вам- типа вот, был вход с нового устройства - мы сфоткали злоумышленника - это вы или не вы?

Потом они убрали эту фичу, но осадочек уже остался.

А Эпл - это еще более закрытая гребаная ОС - что они там делают, одному Эплу известно.

Но фотку делать незаметно - я на 100% уверен что могут делать и в iOS.

Ответить
Развернуть ветку
309 комментариев
Раскрывать всегда