Apple усилит защиту детей — начнёт размывать откровенные снимки в «Сообщениях», проверять iCloud и предупреждать в Siri

Компания будет проверять контент прямо на устройствах с помощью нейросетей, натренированных на распознавание сексуальных снимков.

Изображение Apple
4343

Вообще-то Apple, собирается сканировать содержимое iPhone, если даже полностью отключить iCloud. При выявлении так называемого подозрительного контента, фотография будет выгружаться в зашифрованном виде, расшифровываться на серверах Apple и проверяться специальной командой. Родители маленьких детей уже недовольны, что на их детей будут смотреть сотрудники яблочной компании.
“what happens on your iphone stays on your iphone” - уже не работает.
Получается: «Мы спрятали ваш IP от трёх сайтов, зато проскандировали всю вашу фототеку, выгрузили 5 ваших фотографий, просмотрели их и выдали ментам.»
Браво, Apple.

100
Ответить

Комментарий недоступен

4
Ответить

На это вам сектанты от Apple будут писать что-то вроде "ой, а можно подумать Хуавэй не сливает ваши фотки" подменяя тему) они такие..

1
Ответить

Да, похоже что файлы вот так просто попадут к хрен знает кому. а если алгоритм ошибется? 

Ответить