{"id":14289,"url":"\/distributions\/14289\/click?bit=1&hash=892464fe46102746d8d05914a41d0a54b0756f476a912469a2c12e8168d8a933","title":"\u041e\u0434\u0438\u043d \u0438\u043d\u0441\u0442\u0440\u0443\u043c\u0435\u043d\u0442 \u0443\u0432\u0435\u043b\u0438\u0447\u0438\u043b \u043f\u0440\u043e\u0434\u0430\u0436\u0438 \u043d\u0430 5%, \u0430 \u0441\u0440\u0435\u0434\u043d\u0438\u0439 \u0447\u0435\u043a \u2014 \u043d\u0430 20%","buttonText":"","imageUuid":""}

Apple пообещала не использовать для слежки систему по проверке фотографий iCloud на детскую порнографию Статьи редакции

Компания пояснила, как будет работать система и чем отличается от конкурентов, но не рассказала, что помешает злоупотребить возможностями в будущем.

Apple выпустила шестистраничный документ с ответами на часто задаваемые вопросы о проверке детской порнографии на снимках в iCloud. Компания дополнительно прояснила детали после обвинений в нарушении приватности со стороны специалистов по кибербезопасности, журналистов и пользователей. TJ публикует краткую выжимку документа.

Чем отличается проверка фото в «Сообщениях» и iCloud

  • Проверка контента в «Сообщениях» и фото в iCloud — две разные технологии, которые не работают сообща. Защита детей в iMessage работает только на семейных аккаунтах с детьми 12 или младше. Данные не передают властям, а функцию нужно активировать вручную.
  • Распознавание откровенных снимков в «Сообщениях» не нарушает оконечное шифрование в iMessage — проверка происходит прямо на устройстве, куда и приходят сообщения, а Apple не получает никаких данных в процессе.
  • Родителей не будут предупреждать о получении или отправке каждого откровенного снимка: сначала система предупредит ребёнка, что если он согласится просмотреть фото без размытия, то оповещение отправят родителю.
  • Для детей 13-17 лет система будет размывать откровенные снимки и предупреждать об опасности содержимого, но не станет оповещать родителей.

Будет ли Apple сканировать все фотографии на айфонах на детское порно и как это работает

  • Проверка на жестокое обращение с детьми работает только для фотографий, которые пользователь решил выгрузить в облако iCloud, если пользователь отключил выгрузку — система не будет работать. Функция не проверяет частную библиотеку фотографий на устройстве.
  • Apple сможет узнать только об аккаунтах, которые содержат «коллекцию уже известных изображения с детской порнографией» и только о снимках, которые совпали с ними.
  • База данных изображений с жестоким обращением над детьми не хранится на устройстве в открытом виде — Apple использует нечитаемые «хэши», которые сохранит на устройстве. Они представляют собой строчки с цифрами, которые невозможно прочитать или конвертировать в исходные изображения.
  • Apple использовала систему сравнения хэшей изображений, чтобы не сканировать все изображения в облаке — так делают все остальные компании. В компании считают, что это создаёт угрозу приватности, поэтому Apple не узнаёт о фотографиях пользователей до тех пор, пока не зафиксирует совпадение с базой данных.
  • Система не проверяет никакой контент на устройстве, кроме фотографий, выгружаемых в iCloud. Apple не получит никаких других данных с устройства.

Можно ли использовать систему для распознавания чего-то кроме детской порнографии

  • Apple утверждает, что система работает только с базой данных изображений, которые предоставили правозащитные организации. Технологию не разрабатывали для другого назначения.
  • В документе говорится, что система не предполагает автоматической передачи данных властям: сначала Apple сама проверит результат проверки своей технологии.
  • В Apple утверждают, что система создана только для оповещения о фотографиях, которые находятся в базе данных уже известного властям детского порно. В большинстве стран, включая США, подобный контент запрещён, а в Штатах Apple обязана сообщать об известных случаях властям.
  • Apple заявила, что откажется от любых просьб правительств адаптировать систему для других целей. Технологию создавали только для конкретной цели — отслеживать случаи жестокого обращения с детьми.
  • Правительства и до этого просили компанию жертвовать приватностью пользователей, но она отвергала все просьбы и продолжит делать это в будущем, заявили в Apple.
  • Базу данных для сравнения формирует не сама Apple, а правозащитные организации — компания ей только пользуется. В базе находятся только известные властям снимки с детской порнографией.

Apple объявила об усилении защиты детей 6 августа. Компания внедрила функции в трёх областях — «Сообщениях», фотографиях в iCloud и в Siri. С осени 2021 года системы начнут размывать откровенные снимки для детей до 12 лет в iMessage, проверять фотографии в облаке iCloud на детское порно и давать советы по безопасности детям и родителям в Siri.

После анонса компанию раскритиковали эксперты по кибербезопасности, журналисты и рядовые пользователи. Они обвинили Apple в нарушении приватности и задались вопросами, как ту же функцию могут использовать авторитарные правительства в будущем.

Многие пользователи не поняли, как именно Apple будет бороться с детской порнографией. В случае с «Сообщениями» компания использовала распознавание на устройстве для размытия откровенных снимков, а в случае с iCloud сравнивает цифровые отпечатки фотографий с отпечатками, полученными от правозащитников.

Согласно документации, Apple не получит доступ к фотографиям за единственным исключением — если среди фотографий пользователей будет слишком много совпадений. Тогда сотрудник компании вручную проверит подозрительные снимки, которые выдала система, чтобы убедиться в результате сравнения.

После критики Apple также уточнила, что функцию пока запускают только в США. Запускать функцию будут постепенно от страны к стране с учётом конкретной законодательной базы.

0
140 комментариев
Написать комментарий...
Александр Комин

А если алгоритмы ошибочно определят ЦП, а твоя женщина/мужчина или сам ты КАРЛИК, а сотрудник эппл будет палить это и рофлить…

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Хозяин

То есть у самого Эпла есть база всего детского порно? Пора их сажать всех. 

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Хозяин

Тоесть педофилам чтобы безнаказанно хранить и распространять детское порно надо просто открыть правозащитную организацию.

Ответить
Развернуть ветку
Al Pr

Бинго!

Ответить
Развернуть ветку
Masha Kovalyova

Кто не уточняет? Это одна-единственная основанная Конгрессом США организация NCMEC, в США законом только она наделена правом принимать репорты на ЦП и мэнэджить базу такого контента.

Ответить
Развернуть ветку
Ivan Zamorev

Там во главе заднеприводный, но не педофил же

Ответить
Развернуть ветку
Николай Замотаев

Пока не будет.

Ответить
Развернуть ветку
137 комментариев
Раскрывать всегда