Пользователь Reddit обнаружил код алгоритма Apple для проверки детского порно в iOS 14.3 и опубликовал его на GitHub Статьи редакции

Систему обещают включить только в iOS 15, но её код уже есть на всех устройствах с iOS 14.3, а теперь проверить его можно даже на Linux.

Пользователь Reddit под ником AsuharietYgvar опубликовал код алгоритма NeuralHash, который Apple будет использовать для проверки фотографий iCloud на детское порно. Он обнаружил следы системы на iOS 14.3 и провёл реверс-инжиниринг кода. Результат он выгрузил на GitHub.

Как отметил пользователь, ранние тесты показывают, что системе не мешает изменение размеров и сжатие изображений. В то же время её можно обмануть, обрезав исходную картинку или изменив её ориентацию. Это подтверждает заявления Apple о том, что алгоритм срабатывает только при полном сходстве с базой данных изображений, на которых запечатлено жестокое обращение с детьми.

Автор отдельно отметил, что обнаружил алгоритм уже на iOS 14.3 — актуальной версии системы, в которой функция не была заявлена. NeuralHash оказался скрыт за обфусцированными названиями классов, но после недолгого погружения в скрытые API пользователю Reddit удалось получить код алгоритма и воссоздать его на языке Python.

  • Apple объявила об усилении защиты детей в начале августа. Компания хочет бороться с проблемой в iMessage, iCloud и через Siri.
  • Пользователи, журналисты и эксперты по кибербезопасности раскритиковали одну из функций ещё до запуска. По задумке Apple все фотографии, выгружаемые в iCloud, будут проверять на соответствие базе данных снимков с жестоким обращением, но в соцсетях посчитали это нарушением приватности.
  • 9 августа Apple выпустила FAQ по новым функциям, чтобы развеять недоверие и пообещала не использовать для слежки систему по проверке фотографий iCloud на детскую порнографию.
0
132 комментария
Написать комментарий...
Александр Антипов

Вот эти алгоритмы, вернее как мы становимся заложниками. Если начать слежку, начнется негодование, но без слежки не вычислить педофилов. Что делать в таком случаи?

Ответить
Развернуть ветку
Константин Рогов

Если тебя не кастрировать ты можешь кого-то изнасиловать. Конечно, начнется негодование, но без этого никак, снимай штаны.

Ответить
Развернуть ветку
Александр Антипов

Ну я не сомневался в таких умниках. Примеры можно и ещё куда хуже подобрать. Но не бывает одного действия, без другого. Жаль что умничать в наше время стало модно, а не быть умным.

Ответить
Развернуть ветку
Николай Замотаев

Эти алгоритмы бесполезны для борьбы с педофилами. Тем более, что бороться надо в первую очередь с производителями фото/видео, а не с потребителями.
Потребителям надо помощь оказывать.

А описанный алгоритм умеет только уже известное выделять. Поэтому - бесполезно. А как прецедент - ещё и вредно.

Ответить
Развернуть ветку
Александр Антипов

Вот раньше работали алгоритмы, а теперь всё? Думаю что нужно применить правильно.

Ответить
Развернуть ветку
129 комментариев
Раскрывать всегда