Apple пообещала не использовать для слежки систему по проверке фотографий iCloud на детскую порнографию Статьи редакции
Компания пояснила, как будет работать система и чем отличается от конкурентов, но не рассказала, что помешает злоупотребить возможностями в будущем.
Apple выпустила шестистраничный документ с ответами на часто задаваемые вопросы о проверке детской порнографии на снимках в iCloud. Компания дополнительно прояснила детали после обвинений в нарушении приватности со стороны специалистов по кибербезопасности, журналистов и пользователей. TJ публикует краткую выжимку документа.
Чем отличается проверка фото в «Сообщениях» и iCloud
- Проверка контента в «Сообщениях» и фото в iCloud — две разные технологии, которые не работают сообща. Защита детей в iMessage работает только на семейных аккаунтах с детьми 12 или младше. Данные не передают властям, а функцию нужно активировать вручную.
- Распознавание откровенных снимков в «Сообщениях» не нарушает оконечное шифрование в iMessage — проверка происходит прямо на устройстве, куда и приходят сообщения, а Apple не получает никаких данных в процессе.
- Родителей не будут предупреждать о получении или отправке каждого откровенного снимка: сначала система предупредит ребёнка, что если он согласится просмотреть фото без размытия, то оповещение отправят родителю.
- Для детей 13-17 лет система будет размывать откровенные снимки и предупреждать об опасности содержимого, но не станет оповещать родителей.
Будет ли Apple сканировать все фотографии на айфонах на детское порно и как это работает
- Проверка на жестокое обращение с детьми работает только для фотографий, которые пользователь решил выгрузить в облако iCloud, если пользователь отключил выгрузку — система не будет работать. Функция не проверяет частную библиотеку фотографий на устройстве.
- Apple сможет узнать только об аккаунтах, которые содержат «коллекцию уже известных изображения с детской порнографией» и только о снимках, которые совпали с ними.
- База данных изображений с жестоким обращением над детьми не хранится на устройстве в открытом виде — Apple использует нечитаемые «хэши», которые сохранит на устройстве. Они представляют собой строчки с цифрами, которые невозможно прочитать или конвертировать в исходные изображения.
- Apple использовала систему сравнения хэшей изображений, чтобы не сканировать все изображения в облаке — так делают все остальные компании. В компании считают, что это создаёт угрозу приватности, поэтому Apple не узнаёт о фотографиях пользователей до тех пор, пока не зафиксирует совпадение с базой данных.
- Система не проверяет никакой контент на устройстве, кроме фотографий, выгружаемых в iCloud. Apple не получит никаких других данных с устройства.
Можно ли использовать систему для распознавания чего-то кроме детской порнографии
- Apple утверждает, что система работает только с базой данных изображений, которые предоставили правозащитные организации. Технологию не разрабатывали для другого назначения.
- В документе говорится, что система не предполагает автоматической передачи данных властям: сначала Apple сама проверит результат проверки своей технологии.
- В Apple утверждают, что система создана только для оповещения о фотографиях, которые находятся в базе данных уже известного властям детского порно. В большинстве стран, включая США, подобный контент запрещён, а в Штатах Apple обязана сообщать об известных случаях властям.
- Apple заявила, что откажется от любых просьб правительств адаптировать систему для других целей. Технологию создавали только для конкретной цели — отслеживать случаи жестокого обращения с детьми.
- Правительства и до этого просили компанию жертвовать приватностью пользователей, но она отвергала все просьбы и продолжит делать это в будущем, заявили в Apple.
- Базу данных для сравнения формирует не сама Apple, а правозащитные организации — компания ей только пользуется. В базе находятся только известные властям снимки с детской порнографией.
Apple объявила об усилении защиты детей 6 августа. Компания внедрила функции в трёх областях — «Сообщениях», фотографиях в iCloud и в Siri. С осени 2021 года системы начнут размывать откровенные снимки для детей до 12 лет в iMessage, проверять фотографии в облаке iCloud на детское порно и давать советы по безопасности детям и родителям в Siri.
После анонса компанию раскритиковали эксперты по кибербезопасности, журналисты и рядовые пользователи. Они обвинили Apple в нарушении приватности и задались вопросами, как ту же функцию могут использовать авторитарные правительства в будущем.
Многие пользователи не поняли, как именно Apple будет бороться с детской порнографией. В случае с «Сообщениями» компания использовала распознавание на устройстве для размытия откровенных снимков, а в случае с iCloud сравнивает цифровые отпечатки фотографий с отпечатками, полученными от правозащитников.
Согласно документации, Apple не получит доступ к фотографиям за единственным исключением — если среди фотографий пользователей будет слишком много совпадений. Тогда сотрудник компании вручную проверит подозрительные снимки, которые выдала система, чтобы убедиться в результате сравнения.
После критики Apple также уточнила, что функцию пока запускают только в США. Запускать функцию будут постепенно от страны к стране с учётом конкретной законодательной базы.
А как пользователю узнать, что они там ещё собирают и проверяют на хэш и что сотрудник захочет посмотреть ещё например. Ответ - никак! Приближаемся к открытому тотальному контролю, конечно под соусом безопасности!
Здесь все просто. Им не нужно искать конкретики на фото с какими то детьми. Порнушных сайтов немерено, никто их не бани, а видите ли эпл резко захотела именно фото сканить... Это нарушение законов о личных данных и права на личную жизнь
Они априори получили возможность без согласия людей на обработку их фотографий. Цель озвученная - чушь полная. Цель реальная - сопоставление фотографий контактам, знакомствам, создание БД круга пользователей с фото, связь этого с соцсетями и т д.
Благими намерениями намечена дорога в ад. Эта пословица сегодня поменяла смысл и говорит о том, что тот самый ад в будущем нам устраивают именно лозунгами о благих намерениях.
Сейчас век сбора данных о людях. Для чего они нужны - в будущем станет известно всем. Сейчас известно не только лишь всем®.
В целом все корпорации сейчас сколачивают базу данных на целые страны почеловечно, чтобы потом тот самый ад и создать.
Согласен, мы переходим в другую эру, где приватность в обществе будет труднодостижима, однако это обычное следствие научно-технического прогресса, но пока не ясно куда он нас приведёт, но остановить это вряд ли получится
Любые инструменты можно использовать по разному. Цифру решили использовать для закабаления. И если честно - все очень даже ясно: к чему приведёт это все и чем люди за это заплатят
Можно простой вопрос: зачем вас закабалять то? Это ж хлопоты: корми вас, надзирай