Apple усилит защиту детей — начнёт размывать откровенные снимки в «Сообщениях», проверять iCloud и предупреждать в Siri

Компания будет проверять контент прямо на устройствах с помощью нейросетей, натренированных на распознавание сексуальных снимков.

Изображение Apple
43

Не очень понятна инициатива. Теперь телефон от apple это не приватное место. Вначале они сканируют фото по критериям A, потом B, С, D и т.д. Потом они будут анализировать весь входящий и исходящий трафик.

И вот этот довод "мы шифруем, чтобы другие не прочитали" не уместен. Да, они зашифровали трафик от третьих лиц, но они отправляют на свои сервера данные с ключом для дешифрации где будут простые смертные, т.е. третьи лица смотреть эту информацию. Также эти данные потом передаются правоохранительным органам.

Зачем тогда это шифрование? Типа мы в вас стреляем из пистолета, но не волнуйтесь, пули резиновые. Так что-ли? 

Лично для меня продукция Apple теперь имеет нулевую ценность. Так как эта инициатива явно рассчитана не на детей, а на выуживание информации с конкретных людей. 

6
Ответить

Что непонятного? Вашу приватность целенаправленно уничтожают под благовидным предлогом

Лично для меня продукция Apple теперь имеет нулевую ценностьЗавтра это будет везде, тенденцию чтоли не видите?

1
Ответить