Apple пообещала не использовать для слежки систему по проверке фотографий iCloud на детскую порнографию

Компания пояснила, как будет работать система и чем отличается от конкурентов, но не рассказала, что помешает злоупотребить возможностями в будущем.

Apple выпустила шестистраничный документ с ответами на часто задаваемые вопросы о проверке детской порнографии на снимках в iCloud. Компания дополнительно прояснила детали после обвинений в нарушении приватности со стороны специалистов по кибербезопасности, журналистов и пользователей. TJ публикует краткую выжимку документа.

Чем отличается проверка фото в «Сообщениях» и iCloud

  • Проверка контента в «Сообщениях» и фото в iCloud — две разные технологии, которые не работают сообща. Защита детей в iMessage работает только на семейных аккаунтах с детьми 12 или младше. Данные не передают властям, а функцию нужно активировать вручную.
  • Распознавание откровенных снимков в «Сообщениях» не нарушает оконечное шифрование в iMessage — проверка происходит прямо на устройстве, куда и приходят сообщения, а Apple не получает никаких данных в процессе.
  • Родителей не будут предупреждать о получении или отправке каждого откровенного снимка: сначала система предупредит ребёнка, что если он согласится просмотреть фото без размытия, то оповещение отправят родителю.
  • Для детей 13-17 лет система будет размывать откровенные снимки и предупреждать об опасности содержимого, но не станет оповещать родителей.

Будет ли Apple сканировать все фотографии на айфонах на детское порно и как это работает

  • Проверка на жестокое обращение с детьми работает только для фотографий, которые пользователь решил выгрузить в облако iCloud, если пользователь отключил выгрузку — система не будет работать. Функция не проверяет частную библиотеку фотографий на устройстве.
  • Apple сможет узнать только об аккаунтах, которые содержат «коллекцию уже известных изображения с детской порнографией» и только о снимках, которые совпали с ними.
  • База данных изображений с жестоким обращением над детьми не хранится на устройстве в открытом виде — Apple использует нечитаемые «хэши», которые сохранит на устройстве. Они представляют собой строчки с цифрами, которые невозможно прочитать или конвертировать в исходные изображения.
  • Apple использовала систему сравнения хэшей изображений, чтобы не сканировать все изображения в облаке — так делают все остальные компании. В компании считают, что это создаёт угрозу приватности, поэтому Apple не узнаёт о фотографиях пользователей до тех пор, пока не зафиксирует совпадение с базой данных.
  • Система не проверяет никакой контент на устройстве, кроме фотографий, выгружаемых в iCloud. Apple не получит никаких других данных с устройства.

Можно ли использовать систему для распознавания чего-то кроме детской порнографии

  • Apple утверждает, что система работает только с базой данных изображений, которые предоставили правозащитные организации. Технологию не разрабатывали для другого назначения.
  • В документе говорится, что система не предполагает автоматической передачи данных властям: сначала Apple сама проверит результат проверки своей технологии.
  • В Apple утверждают, что система создана только для оповещения о фотографиях, которые находятся в базе данных уже известного властям детского порно. В большинстве стран, включая США, подобный контент запрещён, а в Штатах Apple обязана сообщать об известных случаях властям.
  • Apple заявила, что откажется от любых просьб правительств адаптировать систему для других целей. Технологию создавали только для конкретной цели — отслеживать случаи жестокого обращения с детьми.
  • Правительства и до этого просили компанию жертвовать приватностью пользователей, но она отвергала все просьбы и продолжит делать это в будущем, заявили в Apple.
  • Базу данных для сравнения формирует не сама Apple, а правозащитные организации — компания ей только пользуется. В базе находятся только известные властям снимки с детской порнографией.

Apple объявила об усилении защиты детей 6 августа. Компания внедрила функции в трёх областях — «Сообщениях», фотографиях в iCloud и в Siri. С осени 2021 года системы начнут размывать откровенные снимки для детей до 12 лет в iMessage, проверять фотографии в облаке iCloud на детское порно и давать советы по безопасности детям и родителям в Siri.

После анонса компанию раскритиковали эксперты по кибербезопасности, журналисты и рядовые пользователи. Они обвинили Apple в нарушении приватности и задались вопросами, как ту же функцию могут использовать авторитарные правительства в будущем.

Многие пользователи не поняли, как именно Apple будет бороться с детской порнографией. В случае с «Сообщениями» компания использовала распознавание на устройстве для размытия откровенных снимков, а в случае с iCloud сравнивает цифровые отпечатки фотографий с отпечатками, полученными от правозащитников.

Согласно документации, Apple не получит доступ к фотографиям за единственным исключением — если среди фотографий пользователей будет слишком много совпадений. Тогда сотрудник компании вручную проверит подозрительные снимки, которые выдала система, чтобы убедиться в результате сравнения.

После критики Apple также уточнила, что функцию пока запускают только в США. Запускать функцию будут постепенно от страны к стране с учётом конкретной законодательной базы.

1818
140 комментариев

вы чо ахуели не ставить лайки, у Даниила больше чем у меня как так-то!

7 лет на ЦП в пустую (((

ничего не помогает

12

Леонид Лютов спасибо за лайк! благодарю от чистого сердца каждого кто поставил лайки в отличии от Даниила!

UPD: Леионид какого хуя минус, не благодарю теперь тебя!

6