{"id":14302,"url":"\/distributions\/14302\/click?bit=1&hash=85de650764093d71ea8033be4100d58b5a8f2ccf21a191bfae1e0f50831313c5","hash":"85de650764093d71ea8033be4100d58b5a8f2ccf21a191bfae1e0f50831313c5","title":"\u0411\u0443\u0445\u0442\u0430 \u0441\u0442\u0430\u043b\u0430 \u043e\u043f\u0435\u0440\u0430\u0442\u043e\u0440\u043e\u043c \u0444\u0438\u0441\u043a\u0430\u043b\u044c\u043d\u044b\u0445 \u0434\u0430\u043d\u043d\u044b\u0445 \u0432 \u041a\u0430\u0437\u0430\u0445\u0441\u0442\u0430\u043d\u0435","buttonText":"","imageUuid":""}

Apple пообещала не использовать для слежки систему по проверке фотографий iCloud на детскую порнографию Статьи редакции

Компания пояснила, как будет работать система и чем отличается от конкурентов, но не рассказала, что помешает злоупотребить возможностями в будущем.

Apple выпустила шестистраничный документ с ответами на часто задаваемые вопросы о проверке детской порнографии на снимках в iCloud. Компания дополнительно прояснила детали после обвинений в нарушении приватности со стороны специалистов по кибербезопасности, журналистов и пользователей. TJ публикует краткую выжимку документа.

Чем отличается проверка фото в «Сообщениях» и iCloud

  • Проверка контента в «Сообщениях» и фото в iCloud — две разные технологии, которые не работают сообща. Защита детей в iMessage работает только на семейных аккаунтах с детьми 12 или младше. Данные не передают властям, а функцию нужно активировать вручную.
  • Распознавание откровенных снимков в «Сообщениях» не нарушает оконечное шифрование в iMessage — проверка происходит прямо на устройстве, куда и приходят сообщения, а Apple не получает никаких данных в процессе.
  • Родителей не будут предупреждать о получении или отправке каждого откровенного снимка: сначала система предупредит ребёнка, что если он согласится просмотреть фото без размытия, то оповещение отправят родителю.
  • Для детей 13-17 лет система будет размывать откровенные снимки и предупреждать об опасности содержимого, но не станет оповещать родителей.

Будет ли Apple сканировать все фотографии на айфонах на детское порно и как это работает

  • Проверка на жестокое обращение с детьми работает только для фотографий, которые пользователь решил выгрузить в облако iCloud, если пользователь отключил выгрузку — система не будет работать. Функция не проверяет частную библиотеку фотографий на устройстве.
  • Apple сможет узнать только об аккаунтах, которые содержат «коллекцию уже известных изображения с детской порнографией» и только о снимках, которые совпали с ними.
  • База данных изображений с жестоким обращением над детьми не хранится на устройстве в открытом виде — Apple использует нечитаемые «хэши», которые сохранит на устройстве. Они представляют собой строчки с цифрами, которые невозможно прочитать или конвертировать в исходные изображения.
  • Apple использовала систему сравнения хэшей изображений, чтобы не сканировать все изображения в облаке — так делают все остальные компании. В компании считают, что это создаёт угрозу приватности, поэтому Apple не узнаёт о фотографиях пользователей до тех пор, пока не зафиксирует совпадение с базой данных.
  • Система не проверяет никакой контент на устройстве, кроме фотографий, выгружаемых в iCloud. Apple не получит никаких других данных с устройства.

Можно ли использовать систему для распознавания чего-то кроме детской порнографии

  • Apple утверждает, что система работает только с базой данных изображений, которые предоставили правозащитные организации. Технологию не разрабатывали для другого назначения.
  • В документе говорится, что система не предполагает автоматической передачи данных властям: сначала Apple сама проверит результат проверки своей технологии.
  • В Apple утверждают, что система создана только для оповещения о фотографиях, которые находятся в базе данных уже известного властям детского порно. В большинстве стран, включая США, подобный контент запрещён, а в Штатах Apple обязана сообщать об известных случаях властям.
  • Apple заявила, что откажется от любых просьб правительств адаптировать систему для других целей. Технологию создавали только для конкретной цели — отслеживать случаи жестокого обращения с детьми.
  • Правительства и до этого просили компанию жертвовать приватностью пользователей, но она отвергала все просьбы и продолжит делать это в будущем, заявили в Apple.
  • Базу данных для сравнения формирует не сама Apple, а правозащитные организации — компания ей только пользуется. В базе находятся только известные властям снимки с детской порнографией.

Apple объявила об усилении защиты детей 6 августа. Компания внедрила функции в трёх областях — «Сообщениях», фотографиях в iCloud и в Siri. С осени 2021 года системы начнут размывать откровенные снимки для детей до 12 лет в iMessage, проверять фотографии в облаке iCloud на детское порно и давать советы по безопасности детям и родителям в Siri.

После анонса компанию раскритиковали эксперты по кибербезопасности, журналисты и рядовые пользователи. Они обвинили Apple в нарушении приватности и задались вопросами, как ту же функцию могут использовать авторитарные правительства в будущем.

Многие пользователи не поняли, как именно Apple будет бороться с детской порнографией. В случае с «Сообщениями» компания использовала распознавание на устройстве для размытия откровенных снимков, а в случае с iCloud сравнивает цифровые отпечатки фотографий с отпечатками, полученными от правозащитников.

Согласно документации, Apple не получит доступ к фотографиям за единственным исключением — если среди фотографий пользователей будет слишком много совпадений. Тогда сотрудник компании вручную проверит подозрительные снимки, которые выдала система, чтобы убедиться в результате сравнения.

После критики Apple также уточнила, что функцию пока запускают только в США. Запускать функцию будут постепенно от страны к стране с учётом конкретной законодательной базы.

0
140 комментариев
Написать комментарий...
Al Pr

Я не понял!
Это же что получается! Эппл сдалась под натиском мировой сети педофилов?

Ответить
Развернуть ветку
Denis Smirnov

Быстро сдалась. 

Ответить
Развернуть ветку
Al Pr

Значит педофилы!
Иначе зачем им ещё собирать и изучать педофильские фотографии?

Ответить
Развернуть ветку
Denis Smirnov

Для нового сервиса - iPorno.

Ответить
Развернуть ветку
Al Pr

Или iPedo?
Как-то менее навязчиво звучит

Ответить
Развернуть ветку
Denis Smirnov

iPedo - палево.
 Тиндер же не называют маркетплейсом проституток. Да и Мамба когда то была официально местом поиска друзей и любви. 

Ответить
Развернуть ветку
137 комментариев
Раскрывать всегда