Открытое письмо против технологии сканирования конфиденциального контента Apple

Эксперты по безопасности и конфиденциальности, криптографы, исследователи, профессора, эксперты по правовым вопросам и потребители Apple осуждают запланированный шаг Apple по подрыву конфиденциальности пользователей и сквозного шифрования.

Дорогой Apple,
5 августа 2021 года Apple Inc. объявила о новых технологических мерах, которые будут применяться практически ко всем ее устройствам под эгидой «Расширенная защита для детей». Хотя эксплуатация детей представляет собой серьезную проблему, и хотя усилия по борьбе с ней, несомненно, имеют благие намерения, предложение Apple вводит бэкдор, который угрожает подорвать фундаментальные меры защиты конфиденциальности для всех пользователей продуктов Apple.

Предлагаемая Apple технология работает путем постоянного мониторинга фотографий, сохраненных или отправленных на iPhone, iPad или Mac пользователя. Одна система определяет, обнаружено ли определенное количество нежелательных фотографий в хранилище iCloud, и уведомляет власти. Другой уведомляет родителей ребенка, если iMessage используется для отправки или получения фотографий, которые, по мнению алгоритма машинного обучения, содержат изображения наготы.

Поскольку обе проверки выполняются на устройстве пользователя, они могут обойти любое сквозное шифрование, которое в противном случае могло бы защитить конфиденциальность пользователя.

Сразу после объявления Apple эксперты по всему миру забили тревогу о том, как предлагаемые Apple меры могут превратить каждый iPhone в устройство, которое непрерывно сканирует все фотографии и сообщения, которые проходят через него, чтобы сообщать о любом нежелательном контенте правоохранительным органам, создавая прецедент. Где наши личные устройства становятся радикально новым инструментом для инвазивного наблюдения с минимальным контролем для предотвращения возможных злоупотреблений и необоснованного расширения масштабов наблюдения.

Фонд Electronic Frontier Foundation заявил, что «Apple открывает дверь для более широких злоупотреблений»:

Невозможно создать систему сканирования на стороне клиента, которая могла бы использоваться только для изображений сексуального характера, отправленных или полученных детьми. Как следствие, даже благие намерения по созданию такой системы нарушат ключевые обещания шифрования самого мессенджера и откроют дверь для более широких злоупотреблений [ … ] Это не скользкая дорожка; это полностью построенная система, которая ждет, пока внешнее давление внесет малейшие изменения.

Центр демократии и технологий заявил, что «глубоко обеспокоен тем, что изменения Apple на самом деле создают новые риски для детей и всех пользователей и знаменуют собой значительный отход от давно применяемых протоколов конфиденциальности и безопасности»:

Apple заменяет свою стандартную систему сквозного зашифрованного обмена сообщениями инфраструктурой для наблюдения и цензуры, которая будет уязвима для злоупотреблений и расширения масштабов не только в США, но и во всем мире», — говорит Грег Ноджим. Со-директор проекта CDT Security & Surveillance. «Apple следует отказаться от этих изменений и восстановить веру пользователей в безопасность и целостность их данных на устройствах и в сервисах Apple.

Доктор Кармела Тронкосо, ведущий исследователь в области безопасности и конфиденциальности и профессор EPFL в Лозанне, Швейцария, сказала, что, хотя «новый детектор Apple для материалов о сексуальном насилии над детьми (CSAM) продвигается под эгидой защиты детей и конфиденциальности, но это твердый шаг к повсеместному надзору и контролю»

Доктор Мэтью Д. Грин, еще один ведущий исследователь в области безопасности и конфиденциальности и профессор Университета Джона Хопкинса в Балтиморе, штат Мэриленд, сказал, что «вчера мы постепенно двигались к будущему, в котором все меньше и меньше нашей информации должно было быть недоступно. контроль и обзор кого угодно, кроме нас самих. Впервые с 1990-х годов мы вернули себе конфиденциальность. Сегодня мы идем по другому пути», добавляя:

Давление будет исходить из Великобритании, США, Индии, Китая. Я в ужасе от того, как это будет выглядеть. Почему Apple хочет сказать миру: «Эй, у нас есть этот инструмент»?

Сара Джейми Льюис, исполнительный директор Open Privacy Research Society, предупредила, что:

Если Apple удастся внедрить это, как вы думаете, сколько времени пройдет, прежде чем то же самое можно будет ожидать от других поставщиков? До того, как walled-garden запретил приложения, которые этого не делают? До того, как это будет закреплено в законе? Как вы думаете, сколько времени пройдет, прежде чем база данных будет расширена за счет «террористического» контента? «Вредоносного, но легального» контента? государственная цензура?

Доктор Надим Кобейси, исследователь в области безопасности и конфиденциальности, предупредил:

Apple продает iPhone без FaceTime в Саудовской Аравии, потому что местное законодательство запрещает зашифрованные телефонные звонки. Это лишь один из многих примеров того, как Apple склоняется к местному давлению. Что происходит, когда местные правила Саудовской Аравии предписывают сканировать сообщения не на предмет сексуального насилия над детьми, а на предмет гомосексуализма или преступлений против монархии?

Заявление Electronic Frontier Foundation по этому поводу подтверждает вышеупомянутую озабоченность дополнительными примерами того, как предлагаемая Apple технология может привести к глобальному злоупотреблению:

Возьмем, к примеру, Индию, где недавно принятые правила включают опасные требования к платформам для определения происхождения сообщений и предварительного просмотра контента. К службам обмена сообщениями могут применяться новые законы Эфиопии, требующие удаления «дезинформации» в течение 24 часов. И многие другие страны — часто с авторитарными правительствами — приняли аналогичные законы. Изменения Apple позволят такую проверку, удаление и отчетность в ее сквозных сообщениях. Случаи злоупотреблений легко представить: правительства, запрещающие гомосексуальность, могут потребовать, чтобы классификатор был обучен ограничивать очевидный контент ЛГБТК +, или авторитарный режим может потребовать, чтобы классификатор мог обнаруживать популярные сатирические изображения или листовки протеста

Более того, Electronic Frontier Foundation настаивает на том, что эта миссия уже видна в действии: «одна из технологий, изначально созданная для сканирования и хэширования изображений сексуального насилия над детьми, была перепрофилирована для создания базы данных «террористического» контента, в которую компании могут вносить свой вклад и доступ с целью запрета такого контента. База данных, управляемая Глобальным интернет-форумом по борьбе с терроризмом (GIFCT), к сожалению, не имеет внешнего надзора, несмотря на призывы гражданского общества».

Фундаментальные недостатки дизайна в предложенном Apple подходе также были отмечены экспертами, которые утверждали, что «Apple может тривиально использовать разные наборы данных отпечатков пальцев для каждого пользователя. Для одного пользователя это может быть жестокое обращение с детьми, для другого это может быть гораздо более широкая категория», что дает возможность выборочного отслеживания контента для целевых пользователей.

Тип технологии, которую Apple предлагает для защиты детей, зависит от расширяемой инфраструктуры, которую невозможно контролировать или технически ограничивать. Эксперты неоднократно предупреждали, что проблема заключается не только в конфиденциальности, но и в отсутствии подотчетности, технических препятствиях для расширения, а также в отсутствии анализа или даже признания возможности ошибок и ложных срабатываний.

Кендра Альберт, юрист клиники Cyberlaw при Гарвардской юридической школе, предупредила, что «эти функции« защиты детей »могут привести к тому, что квир-дети будут выгнаны из их домов, избиты или того хуже», добавив:

Я просто знаю (называя это сейчас), что эти алгоритмы машинного обучения будут отмечать переходные фотографии. Удачи в отправке друзьям ваших фотографий, если у вас есть «женские соски в подарок»

Мы, нижеподписавшиеся, просим:

Внедрение Apple Inc. предлагаемой технологии мониторинга контента немедленно прекращается. Apple Inc. выпускает заявление, подтверждающее их приверженность сквозному шифрованию и конфиденциальности пользователей. Нынешний путь Apple угрожает подорвать десятилетия работы технологов, ученых и защитников политики над принятием строгих мер по сохранению конфиденциальности, которые являются нормой для большинства потребительских электронных устройств и вариантов использования. Мы просим Apple пересмотреть развертывание технологий, чтобы не свести на нет эту важную работу.

Подписаться с помощью GitHub.

0
65 комментариев
Написать комментарий...
Nan Nan

У вас есть выбор - просто не покупайте продукцию компании Apple. Голосуйте своими деньгами, а не какими-то глупыми петициями (они хоть раз в чем-то помогли?) 

Ответить
Развернуть ветку
Danila

Гугл со своей picasa так же сканировали фоточки, еще несколько лет назад, до закрытия проекта
https://habr.com/ru/post/204760/

я уж не говорю про пользовательские данные, такие как местоположение, история просмотров и т.п. - все отправляется, анализируется
что эппл, что гугл, что майкрософт - по факту каждая компания
а) следит
б) сотрудничает с правоохранителями
и в) перебарщивает с этим

Ответить
Развернуть ветку
10 комментариев
ro Smw

Плюсую, если они утвердили такую систему - то уже считают нормой влезать в файлы пользователя, прикрываясь всякими благами. Даже если сейчас сдадут назад - пропишут мелким текстом в соглашении или ещё как-нибудь исхитрятся.

Если такое начнут вводить на android - люди начнут пилить прошивки с лютыми настройками безопасности и приватности или по-тихоньку мигрировать на другие ОС.

Никакое разнообразие софта не заменит отношение к человеческой приватности, тем более сейчас многое перенесено в веб - на первое время и браузером можно обойтись.

Ответить
Развернуть ветку
7 комментариев
Антон Смуров

Если что-то делается, значит это кому-то нужно. Сначала сделает эпл, а потом гугл, а дальше фейсбук и готово…

Ответить
Развернуть ветку
5 комментариев
Arthur Vashurin

Gmail это годами делает, что-то не особо видно возмущенных голосующих. 

https://www.theverge.com/2014/8/5/5970141/how-google-scans-your-gmail-for-child-porn

Ответить
Развернуть ветку
2 комментария
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
4 комментария
Новогодние Каникулы
Автор

Солидарен, но нужны альтернативы

Ответить
Развернуть ветку
1 комментарий
Денис Денисов

Да да, будет как с зарядкой в комплекте - андроид хайпанет , что яблоки нарушают конфиденциальность и сам через время введёт такую фичу

Ответить
Развернуть ветку
Tiberius Lartius

Список педофилов

Ответить
Развернуть ветку
Виктор Петров

Наша команда биг дата проанализровала ваши активности в жире, конфлюенс и телеге и пометила вас как нелояльный и экстремистский гражданин, иными словами вы не всегда писали "Путин" и "Россия" с большой буквы"

Ответить
Развернуть ветку
4 комментария
Новогодние Каникулы
Автор

Зачем же так категорично? Вы же понимаете, что теперь есть возможность подбросить не только вещества, но и фотографии.

Ответить
Развернуть ветку
7 комментариев
Danila

перепись идиотов, ты первый

Ответить
Развернуть ветку
Боря Бро

В мире сотни миллионов людей заводят детей, фоткают их голышом и пересылают эти фотки мамам, папам и прочим родственникам и друзьям! Ппц, представляю, как копы вламываются к молодой семье и забирают всех в участок для выяснения обстоятельств, т.к. эпл послал властям сигнал об обнаруженных фотках голого ребенка! И таких ситуаций будет столько, что никакой полиции не хватит! Эппл ради «помощи» властям уже совсем пи зданулись!🤦🏻‍♂️😩

Ответить
Развернуть ветку
Vadim Semenov ‏⚡☟

Apple настолько тупые, что не подумали про это 🤡

Ответить
Развернуть ветку
Michael Smith
фоткают их голышом и пересылают эти фотки мамам, папам и прочим родственникам и друзьям! Ппц, представляю, как копы вламываются к молодой семье и забирают всех в участок для выяснения обстоятельств, т.к. эпл послал властям сигнал об обнаруженных фотках голого ребенка!

на западе уже давно не фоткают голыми, у нас это сейчас тоже за ЦП считается,
и сроки там не детские

"пересылают эти фотки мамам, папам и прочим родственникам" – если это происходит по сети, то срок от 3 до 10 лет по нашему УК

Ответить
Развернуть ветку
Амбиент Музыкантов

Так голосуйте рублем, к чему это нытьё.

Ответить
Развернуть ветку
Новогодние Каникулы
Автор

Лично я уже давно это делаю.

Ответить
Развернуть ветку
Павел

Хитрый болт, я то думал такое только у нас практикуют, но нет. Под соусом из «праведных» идей пихают разрешение контроля, те пытаются начать реализовывать функции государства, что для корпорации явно лишнее. 

Ответить
Развернуть ветку
Птиц

Роскомнадзор тоже с защиты детей начинал )

Ответить
Развернуть ветку
semen matrasov

- никакого особого алгоритма поиска детского порно нет. Речь идет о частичном анализе картинке на совпадение по хэшам из американской базы по насилию над детьми, возможно - еще интерпола и европола (как тут: https://www.interpol.int/How-we-work/Databases/International-Child-Sexual-Exploitation-database)

- все эти алгоритмы давно работают при выгрузке фото в iCloud (и аналоги есть в других облачных хранилищах, дропбокс например)

- в случае, если совпадение по хэшу прошло успешно - отправка на просмотр глазами уполномоченному. При этом, часть картинки размывается, ибо Privacy. По крайней мере, так работает в Интерполе. На больших объемах сами понимаете, хэш - штука неточная.

- в общем ничего нового нет, просто теперь хэш обсчитывается на устройстве, а не при передаче в облако. И до синхронизации с айклаудом так и остается на устройстве. Вывод? Отключите синхронизацию с айклаудом фоток, если так опасаетесь.

- вероятность того, что фото вашего полуголого ребенка с моря, которое вы себе сделали на память совпадет с хэшом из этой базы - настолько мизерная, что я бы не рассматривал. Все дело в формировании этих хешей. Нет, если, конечно, сделать фото полуголой подруги / ребенка в бдсм антураже - что-то может и сверкнуть, но тут уж извините
- данная мера все же необходима, т.к. при условии декларирования end-to-end шифрования, какой-то минимальный контроль должен быть. Иначе страдает из-за одного извращенца 99,9% порядочных людей. Идея с хэшами, как по мне, нисколько не нарушает Privacy. Хотя да - тема холиварная.

Ответить
Развернуть ветку
Новогодние Каникулы
Автор

Дебажил айфон на дня на наличие Pegasus (нет его). Там каждый чих на сервера отправляется, даже если вы просто телефонную книгу открыли. Но речь не о том. На то, что вас трекают вы уже подписали согласие.
Мне кажется, что это скорее юридический момент по поводу обработки именно фото, т.е. информации, которую пользователь генерирует самостоятельно. 

Ответить
Развернуть ветку
Serj Bloodberry

Я не использую айфоны,  всё где и навсегда, а с их этими системами тоже научился даже определять "айфонозависимость"... новая эта скан штука - да пусть будет ибо по факту огромное количество ххх контента идёт через них. Поэтому и запустили 

Ответить
Развернуть ветку
Serj Bloodberry

Долбаный Т9

Ответить
Развернуть ветку
Vadim Semenov ‏⚡☟

Педофилы бунтуют, значит Apple правильно делает

Ответить
Развернуть ветку
greg chudnoff

Сексуальное насилие над ребенком еще надо доказывать, причем только в суде. Некоторые уже в 12-13 трахаются со всеми подряд, причем по собственной инициативе - гормоны и отсутствие тормозов. С какого перепугу Apple берет на себя роль судьи?

Ответить
Развернуть ветку
Читать все 65 комментариев
null