Apple начнёт локально проверять фото на iPhone на предмет жестокого обращения с детьми — FT Статьи редакции
Сперва функцию внедрят в США, утверждают источники.
О том, что Apple планирует реализовать опцию сканирования локальных медиатек пользователей iPhone, сообщили издание Financial Times и специалист в области криптографии Мэтью Грин.
- Функция neuralMatch будет локально сканировать фотографии пользователей на iPhone без передачи данных в облачное хранилище. Если система определит, что владелец iPhone хранит незаконные изображения, она предупредит сотрудников Apple.
- Специалисты Apple обучили нейросеть neuralMatch на 200 000 изображениях, предоставленных Национальным центром поиска пропавших и эксплуатируемых детей США. Функция будет сравнивать фотографии пользователей с базой данных снимков с помощью алгоритмов хэширования.
- Каждый загружаемый в iCloud снимок будет получать метку, которая укажет — подозрительный ли кадр или нет. Как только определённое количество фотографий будут помечены подозрительными, Apple расшифрует такие снимки и обратится в органы при необходимости.
- Профессор Университета Джона Хопкинса и криптограф Мэтью Грин написал, что сразу несколько его источников подтвердили планы Apple. По его словам, инструмент может помочь с поиском незаконных снимков, но если он попадёт в руки мошенников, то они могут использовать его в своих интересах. Кроме того, он подчеркнул, что алгоритмы хэширования могут выдавать ложные результаты.
- Apple уже сканирует фотографии в iCloud на предмет насилия над детьми, о чём компания рассказала в январе 2020 года, не уточнив, какую именно технологию она использует. Многие компании, включая Facebook, Twitter и Google, применяют для этой цели систему PhotoDNA, которая проверяет изображения по базе данных ранее распознанных снимков используя технологию хэширования.
- Apple может рассказать подробности о технологии neuralMatch в ближайшие дни, сообщили источники Financial Times.
Ранее пользователи iPhone обнаружили в бета-версии iOS 15 неанонсированную функцию, которая автоматически удаляет блики с фотографий уже после съёмки.
2
показа
26K
открытий
1
репост
Как по мне - крайне нежелательная и опасная функция. Педофилы просто не будут пользоваться айфонами, а прецедент шпионажа за пользователями, не делают ли они что-то, что властям не по нраву, уже будет создан.
Опять же не надо исключать false positive, когда «подозрение не подтвердилось, но осадочек остался». Как будет говорить прокурор: «обвиняемый уже попадал в поле зрения правоохранительных органов по прозрению в педофилии».
Так всё просто, не надо пользоваться iphone. Но думаю остальные скоро подтянуться и всё.
Просто не использовать камеру. Notes можно запаролить и вроде у Apple нет доступа к ним, если не использовать iCloud Backup...
Вы думаете что если вы сами не будете пользоваться камерой, гребаный Эпл не сможет сам делать фото?
Вы наивный человек - они могут делать снимки с вашей камеры без вашего участия.
Одно время так делал Гугл кстати.
А есть прецентеднты? Не слышал о таком... Раньше террористы использовали iPhones как более надежную систему...
Лол.
Ну фанатики Эпла могут верить во все что угодно - у них айфон головного мозга и отсутствует мало-мальски критическое мышление напрочь.
На террористов это тоже распространяеца.