Apple пообещала не использовать для слежки систему по проверке фотографий iCloud на детскую порнографию Статьи редакции
Компания пояснила, как будет работать система и чем отличается от конкурентов, но не рассказала, что помешает злоупотребить возможностями в будущем.
Apple выпустила шестистраничный документ с ответами на часто задаваемые вопросы о проверке детской порнографии на снимках в iCloud. Компания дополнительно прояснила детали после обвинений в нарушении приватности со стороны специалистов по кибербезопасности, журналистов и пользователей. TJ публикует краткую выжимку документа.
Чем отличается проверка фото в «Сообщениях» и iCloud
- Проверка контента в «Сообщениях» и фото в iCloud — две разные технологии, которые не работают сообща. Защита детей в iMessage работает только на семейных аккаунтах с детьми 12 или младше. Данные не передают властям, а функцию нужно активировать вручную.
- Распознавание откровенных снимков в «Сообщениях» не нарушает оконечное шифрование в iMessage — проверка происходит прямо на устройстве, куда и приходят сообщения, а Apple не получает никаких данных в процессе.
- Родителей не будут предупреждать о получении или отправке каждого откровенного снимка: сначала система предупредит ребёнка, что если он согласится просмотреть фото без размытия, то оповещение отправят родителю.
- Для детей 13-17 лет система будет размывать откровенные снимки и предупреждать об опасности содержимого, но не станет оповещать родителей.
Будет ли Apple сканировать все фотографии на айфонах на детское порно и как это работает
- Проверка на жестокое обращение с детьми работает только для фотографий, которые пользователь решил выгрузить в облако iCloud, если пользователь отключил выгрузку — система не будет работать. Функция не проверяет частную библиотеку фотографий на устройстве.
- Apple сможет узнать только об аккаунтах, которые содержат «коллекцию уже известных изображения с детской порнографией» и только о снимках, которые совпали с ними.
- База данных изображений с жестоким обращением над детьми не хранится на устройстве в открытом виде — Apple использует нечитаемые «хэши», которые сохранит на устройстве. Они представляют собой строчки с цифрами, которые невозможно прочитать или конвертировать в исходные изображения.
- Apple использовала систему сравнения хэшей изображений, чтобы не сканировать все изображения в облаке — так делают все остальные компании. В компании считают, что это создаёт угрозу приватности, поэтому Apple не узнаёт о фотографиях пользователей до тех пор, пока не зафиксирует совпадение с базой данных.
- Система не проверяет никакой контент на устройстве, кроме фотографий, выгружаемых в iCloud. Apple не получит никаких других данных с устройства.
Можно ли использовать систему для распознавания чего-то кроме детской порнографии
- Apple утверждает, что система работает только с базой данных изображений, которые предоставили правозащитные организации. Технологию не разрабатывали для другого назначения.
- В документе говорится, что система не предполагает автоматической передачи данных властям: сначала Apple сама проверит результат проверки своей технологии.
- В Apple утверждают, что система создана только для оповещения о фотографиях, которые находятся в базе данных уже известного властям детского порно. В большинстве стран, включая США, подобный контент запрещён, а в Штатах Apple обязана сообщать об известных случаях властям.
- Apple заявила, что откажется от любых просьб правительств адаптировать систему для других целей. Технологию создавали только для конкретной цели — отслеживать случаи жестокого обращения с детьми.
- Правительства и до этого просили компанию жертвовать приватностью пользователей, но она отвергала все просьбы и продолжит делать это в будущем, заявили в Apple.
- Базу данных для сравнения формирует не сама Apple, а правозащитные организации — компания ей только пользуется. В базе находятся только известные властям снимки с детской порнографией.
Apple объявила об усилении защиты детей 6 августа. Компания внедрила функции в трёх областях — «Сообщениях», фотографиях в iCloud и в Siri. С осени 2021 года системы начнут размывать откровенные снимки для детей до 12 лет в iMessage, проверять фотографии в облаке iCloud на детское порно и давать советы по безопасности детям и родителям в Siri.
После анонса компанию раскритиковали эксперты по кибербезопасности, журналисты и рядовые пользователи. Они обвинили Apple в нарушении приватности и задались вопросами, как ту же функцию могут использовать авторитарные правительства в будущем.
Многие пользователи не поняли, как именно Apple будет бороться с детской порнографией. В случае с «Сообщениями» компания использовала распознавание на устройстве для размытия откровенных снимков, а в случае с iCloud сравнивает цифровые отпечатки фотографий с отпечатками, полученными от правозащитников.
Согласно документации, Apple не получит доступ к фотографиям за единственным исключением — если среди фотографий пользователей будет слишком много совпадений. Тогда сотрудник компании вручную проверит подозрительные снимки, которые выдала система, чтобы убедиться в результате сравнения.
После критики Apple также уточнила, что функцию пока запускают только в США. Запускать функцию будут постепенно от страны к стране с учётом конкретной законодательной базы.
удоли
ты не победишь!
Комментарий удален модератором
вы чо ахуели не ставить лайки, у Даниила больше чем у меня как так-то!
7 лет на ЦП в пустую (((
ничего не помогает
Леонид Лютов спасибо за лайк! благодарю от чистого сердца каждого кто поставил лайки в отличии от Даниила!
UPD: Леионид какого хуя минус, не благодарю теперь тебя!
короче тут жопа, пацаны мы не вывозим, я вызываю мощь
@Greenomenko Denis - ты лучший! спасибо за лайк! порвём Даниила вместе!
@Егор Какой-то ты лучший 😘
@Давид Сабаури - спасибо! победа близка!
@Данила Данилов 😘
То есть, если власти захотят они смогут в базу данных изображений добавить собственные триггеры (под видом правозащитных организаций), а эппл даже не будет знать об этом.
Как только количество срабатываний у человека превышает заданный порог, заматченные фото дешифруются и проверяются Apple вручную, только после этого передаётся сигнал в правоохранительные органы.
Как будто эпл такая сидит и не знает что у нее все бэкдоры переданы кому надо, и по первому заходу товарища майора не открывают нужную инфу...ага..просто товарищ не из полиции а чуть более важные службы..
Комментарий недоступен
Там нет ИИ
Более того, нужна ведь размеченная выборка: это детская порнография, это взрослая порнография, а это вообще не порнография. Иначе не заработает.
Там обнаружение не произвольной детской порнографии, а конкретных материалов из списка запрещенных.
Когда компания говорит, что правительства стран обращались , но мы отказали, и продукция компании продается в этой стране – либо трусы надевать надо, либо крестик снимать.
Слежка будет. И по воле Apple и по желанию левой пятки чиновника любой страны
В России уже готовится законодательная база применения технологий apple
https://govoritmoskva.ru/news/283244/
Прочитала. Поняла только одно- слать фото задницы своему парню, с айфона- так себе идея)
вот именно, поэтому лучше шли мне
А как теперь школьницы будут зарабатывать если цензура...
И ни в коем случае, никогда, слышите - никогда, не пишите - Apple, гавно! Иначе за вами придут робо- собаки! И схватят за задницу.
Лучше вынеси ему мозг! Это куда действенней!
Правильно, лучше шли их мне, +7 920 - 026 -... -...
Нормальная идея, когда отправишь - маякни, чтобы я знал чью задницу проверяю (ну тобишь фото), а то парня педофилом признают.
Ну вдруг там у тебя задница маленькая или ещё чего....
если детская, то конечно не надо
похоже что у кого то из работников эпла на компе была богатая коллекция детского порно и когда о ней стало известно он просто сказал что это дата сет для обучения ИИ по защите детей от педофилов
-Педофил?
-Не, датасаентист!
- а какой у тебя телефон?
- на андроиде
- педофил чтоле ??
- а какой у тебя телефон?
- айфон. Кстати, не знаете как найти одну фотку с групповухи?
- На, лови и больше не теряй!
Джентльмены друг другу верят на слово
А почему только детская порнография? Есть же еще терроризм и исламофобия, расизм, сексизм, трансформерофобия в конце концов. Почему Эпл ограничивается полумерами, а не борется со всеми видами угнетения?
Надо их закенселить!
Комментарий недоступен
А могли бы отобрать айфоны и ножичком полоснуть. Но ведь не полоснули!
Вообще удивительно как Apple когда то противопоставлялась 1984, а в итоге сами стали 1984.
Это неизбежно в текущем укладе было.
Странно было бы, если вышло б иначе.
Для того, чтоб убить систему - нужно сначала создать новую систему. Поэтому система не убиваема
А как пользователю узнать, что они там ещё собирают и проверяют на хэш и что сотрудник захочет посмотреть ещё например. Ответ - никак! Приближаемся к открытому тотальному контролю, конечно под соусом безопасности!
Здесь все просто. Им не нужно искать конкретики на фото с какими то детьми. Порнушных сайтов немерено, никто их не бани, а видите ли эпл резко захотела именно фото сканить... Это нарушение законов о личных данных и права на личную жизнь
Они априори получили возможность без согласия людей на обработку их фотографий. Цель озвученная - чушь полная. Цель реальная - сопоставление фотографий контактам, знакомствам, создание БД круга пользователей с фото, связь этого с соцсетями и т д.
Благими намерениями намечена дорога в ад. Эта пословица сегодня поменяла смысл и говорит о том, что тот самый ад в будущем нам устраивают именно лозунгами о благих намерениях.
Сейчас век сбора данных о людях. Для чего они нужны - в будущем станет известно всем. Сейчас известно не только лишь всем®.
В целом все корпорации сейчас сколачивают базу данных на целые страны почеловечно, чтобы потом тот самый ад и создать.
А если алгоритмы ошибочно определят ЦП, а твоя женщина/мужчина или сам ты КАРЛИК, а сотрудник эппл будет палить это и рофлить…
Комментарий недоступен
Прочел статью до конца, вопрос про карликов закрыт)
Кто еще будет контролировать, что эти хэши скрывают, подсунуть можно и другой «запрещенный» материал
Им всего лишь надо сделать отключаемую опцию в настройках: Проверять мои фотографии на наличие детской порнографии: да/нет.
Опцию, которая ничего не делает, но проверяет и так и так. Но в случае если выключена - сообщает компании/властям - "тут у нас подозрительный завёлся" ?
Очень эффективно, педофилы, конечно, сломаются на этом этапе и дрожащими руками не смогут устоять и нажмут "да"
Статью не читал ибо нахуй надо.
Сразу в комменты пошёл.
Не пожалел)))
Ну да, зачем читать про борьбу педофилов с педофилами, если они все в комментариях засели 🤗
Педофилы выдохнули и достали из мусорки айфоны.
Была Копорация Зла, стала Копорация Педофилов. Если это ребрендинг, то очень странный.
В Камбодже, Иране, Кувейте замуж можно, а фотки в iMessage смотреть нельзя 🤷🏽♂️
То есть, если я живущий в совке иранец и выбираю себе невесту (ну типа родственники присылают) - ьо либо я тут сяду либо там женюсь??
Жизнь, сука, удивительна
Я не понял!
Это же что получается! Эппл сдалась под натиском мировой сети педофилов?
Быстро сдалась.
Как красиво Apple отмазки лепит!
В Китае и в России как минимум все данные iCloud сливаются властям.
«Никому не дадим данные пользователей, даже сами не будем иметь доступ»
А как смешно было со случаем, когда надо было расшифровать iPhone преступника в США, придумали историю со взломом через сторонние компании.
Так есть же официальные бандлы для патентованных контор для взлома. В Израиле про такую фирму как-то рассказывали.
Учитывая как работает распознавание фотографий в 2к21, то туда попадут далеко не коллекции с запрещенными фотографиями. То есть все равно нарушения конфиденциальности рандомных людей обеспечено
Комментарий недоступен
"Apple пообещала не использовать для слежки систему по проверке фотографий iCloud"...
Перевод: конечно мы будем шариться по всем вашим фото, вводить детальный анализ, по тем местам - где вы отдыхаете и какие кафе предпочитаете, куда любите ездить(страны), что любите кушать, на каком там вы авто?? ага.., ок, пасиба)))) и после этого мы и таргетинг сможем настроить или продать данные другим выгодоприобретателям
__________________________________________.
Вообще удивляет как компания топила совсем недавно, "айфон это анонимно и безопасно", а сегодня уже позиция сменилась на обратную, да бороться с цп праведное дело и нужное, но все подсказывает, что затевается это для чего-то более глобального, с выгодой для конечного бизнеса.
Мы всё простим, только сначала проверим внутренние фото и документы Apple на предмет педофилии.
Хитёр, суко!
Комментарий недоступен
Вы врёте
Верь мне (с)
Шулер пообещал не играть краплеными картами.
Сразу понятно што придумали эту шнягу и закодили индусы...
Аргументы Apple в стиле «мамой клянусь» и «ты что, мне не веришь?»
Мдя. Теперь девайсы эппла только для разработки
Шутки шутками, а на подсознание PR-отдел Apple давит будь здоров. Теперь, если у человека Android-смартфон, где-то в уголке сознания закрадывается мысль…
Что ему не пофиг на приватность?
А если у него кастомная прошивка - то вообще "лови хакера/педофила" ?
Комментарий удален модератором
Комментарий удален модератором
Комментарий удален модератором
Комментарий удален модератором
Комментарий удален модератором
Ну чтож, поверим.
Комментарий удален модератором
Комментарий недоступен
Комментарий удален модератором
Комментарий удален модератором
Комментарий удален модератором
Комментарий удален модератором
Комментарий удален модератором
Комментарий недоступен
Ну конееееечно, а как же тогда они будут ее наличие. Как будто кто-то будет передавать такие фото через смс.
«она отвергала все просьбы и продолжит делать это в будущем, заявили в Apple»
А если правительства примут соответствующие законы, Apple тоже будет «отвергать» их требования?
Обещала кошка сметану не есть.
Ну раз обещали - можно не переживать тогда. Обещания достаточно
Статья на RBC.RU от 09.01.2020, то есть 17 месяцев назад
Ну что скажешь Эппл?
надо было копипастить в оригинальном ascii-варианте ;-)
это же текстовое было изначально?
Комментарий удален модератором
Вроде бы, они решили присоединиться к неплохому делу, но это ведь не их дело вообще.
И разве такие вещи не нужно решать профилактикой?