Пользователь Reddit обнаружил код алгоритма Apple для проверки детского порно в iOS 14.3 и опубликовал его на GitHub Статьи редакции

Систему обещают включить только в iOS 15, но её код уже есть на всех устройствах с iOS 14.3, а теперь проверить его можно даже на Linux.

Пользователь Reddit под ником AsuharietYgvar опубликовал код алгоритма NeuralHash, который Apple будет использовать для проверки фотографий iCloud на детское порно. Он обнаружил следы системы на iOS 14.3 и провёл реверс-инжиниринг кода. Результат он выгрузил на GitHub.

Как отметил пользователь, ранние тесты показывают, что системе не мешает изменение размеров и сжатие изображений. В то же время её можно обмануть, обрезав исходную картинку или изменив её ориентацию. Это подтверждает заявления Apple о том, что алгоритм срабатывает только при полном сходстве с базой данных изображений, на которых запечатлено жестокое обращение с детьми.

Автор отдельно отметил, что обнаружил алгоритм уже на iOS 14.3 — актуальной версии системы, в которой функция не была заявлена. NeuralHash оказался скрыт за обфусцированными названиями классов, но после недолгого погружения в скрытые API пользователю Reddit удалось получить код алгоритма и воссоздать его на языке Python.

  • Apple объявила об усилении защиты детей в начале августа. Компания хочет бороться с проблемой в iMessage, iCloud и через Siri.
  • Пользователи, журналисты и эксперты по кибербезопасности раскритиковали одну из функций ещё до запуска. По задумке Apple все фотографии, выгружаемые в iCloud, будут проверять на соответствие базе данных снимков с жестоким обращением, но в соцсетях посчитали это нарушением приватности.
  • 9 августа Apple выпустила FAQ по новым функциям, чтобы развеять недоверие и пообещала не использовать для слежки систему по проверке фотографий iCloud на детскую порнографию.
0
132 комментария
Написать комментарий...
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Rodeus

Шах и мат, Apple!

Ответить
Развернуть ветку
8 комментариев
Иван Шмаков

Слишком сложно, достаточно один пиксель изменить по цветовому каналу на +-1 значение. Я уж думал они нейронки для ловли задействуют, а тут... 

Ответить
Развернуть ветку
2 комментария
Denis Bystruev
 алгоритм срабатывает только при полном сходстве с базой данных изображений, на которых запечатлено жестокое обращение с детьми

Само хранение такой базы данных не является уголовным преступлением?

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
10 комментариев
Денис Орлов

Правящему классу всегда можно все. Они запреты пишут для нижних классов.

Ответить
Развернуть ветку
6 комментариев
Maxim Medvedev

Там же база хешей, а не исходных изображений

Ответить
Развернуть ветку
13 комментариев
Миша Магадан
Само хранение такой базы данных не является уголовным преступлением?

не должно. К примеру, аптека (условно) может хранить наркотики, а Вася Пупкин нет.

Ответить
Развернуть ветку
9 комментариев
Гала Перидоловна

Из названи NeuralHash можно понять, что изображения они не хранят.

Ответить
Развернуть ветку
Невероятный Блондин

- Вы алгоритм… … … ?
- нет, просто показываю
- красивое

Ответить
Развернуть ветку
Невероятный Блондин

Я просто не придумал цепляющую фразу, извините.

Но главное что вы поняли, люблю вас ))

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
1 комментарий
Екатерина Реднекова

Где ещё как не на реддите с его модераторами-педофилами могли разобрать алгоритм чтобы объяснить как его обмануть. На хабре стопроцентно совесть бы сработала, а вот там как с нихуя. 

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
9 комментариев
Вячеслав Григорьев

На Хабре уже начали продавать свои айфоны и переходить на андроид.

Ответить
Развернуть ветку
12 комментариев

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку
KSA

Когда вместо мозгов в голове совесть это грустное зрелище.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Mikhail

Зачем? Алгоритм шинглов ищет известные фотографии и приходить к вам будет не Apple.

PS сгенерированные нейросетью фотографии легко фильтруются

Ответить
Развернуть ветку
4 комментария
Barone Rosso

Тупо сравнивать хэши? Сомнительно. Вероятнее «слив» не более чем вброс для успокоения преступников. Нейросетке перевернуть картинку, обработать кроп как нечего делать. Другое дело заинтересованы ли они действительно бороться с производителями такого контента? Или будут собирать компромат на всех подряд, раскидывая ЦП по разным площадкам?

Ответить
Развернуть ветку
Кирилл

Многоходовочка.

- Говоришь педофидам, что будешь их ловить
- Педофилы перестают покупать эпл
- Делаешь исследование и рекламу "100% педофилов не покупают Эпл!"
- Всё люди бегут покупать Эпл, чтобы доказать, что они не педофилы.

Ответить
Развернуть ветку
Ленин-гриб

Я одного понять не могу... Факт, что дети до 16 лет себя изучают, фотографируют, снимают и т. д. Ну и что им теперь, камерой пользоваться нельзя будет? Приезжает спецназ на вызов, а там выходит 12 летний "педофил"? Тятеньки, я сам себя фоталь... Так это будет? 😂

И, как, например, нейросеть определит детскую грудь от не детской, скажем 15 летней девушки и 18 летней... Это же миссия импоссибл. Короче, что-то эпл темнит... 

Ответить
Развернуть ветку
11 комментариев
Andrey Vladimirsky

Так а какая разница, есть дыры в алгоритме, или нет? Важен пр инфоповод, чтобы под это дело улучшить GR. Будут от властей замечания - выпустят патч, тем самым показав, что прислушались, и снова улучшили GR

Ответить
Развернуть ветку
Mikhail

Не хэши, а шинглы. По ним уже лет 50 отпечатки пальцев ищут

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Mikhail

Алгоритм применяется на телефоне, алгоритм использует шинглы (несеткие хэши), алгоритм выносит скор похожести,  apple обещает брать за яйца только тех, у кого сумма скоров превысит пороговое значение.

А Германы в интернете всё равно продолжат выносить суждения по заголовкам новостей

Ответить
Развернуть ветку
5 комментариев
Nikolay Martynov

Алкоголим по поиску детской порнографии? Серьезно? Кто-то верит в эту чушь? Где хваленое американцами право на неприкосновенность частной жизни? 

Ответить
Развернуть ветку
Сергей Васильев

В кино!)

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Benowi Bonro

Уже не так давно 

Ответить
Развернуть ветку
Alexander Solokhin

Аппл, двуличная конторка

Ответить
Развернуть ветку
Mikhail

Конечно, вслед за гуглом, майкрософтом и амазоном, у которых эта база и этот алгоритм давно применяются, просто вам журналисты про это не пассказывали

Ответить
Развернуть ветку
Ekspert Moscow

Вот чуваки творят! То биржу на уши поставят, то остров себе купят!
Теперь алгоритмы Apple по винтикам разобрали))) 

Ответить
Развернуть ветку
Александр Антипов

Вот эти алгоритмы, вернее как мы становимся заложниками. Если начать слежку, начнется негодование, но без слежки не вычислить педофилов. Что делать в таком случаи?

Ответить
Развернуть ветку
Константин Рогов

Если тебя не кастрировать ты можешь кого-то изнасиловать. Конечно, начнется негодование, но без этого никак, снимай штаны.

Ответить
Развернуть ветку
3 комментария
zubair zubairov

Молодчина

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
ЯжПрограммист

Во всей этой истории мне только одно интересно, откуда у Apple такая обширная библиотека фотографий жестокости по отношению к детям

Ответить
Развернуть ветку
Константин Рогов

Читать текст не пробовал? 

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Alex Dark

Лучше бы свои нейросети они направили на очистку пространства локальных сетей fly link DC++ Там до сих пор можно приложив немного усилий скачать ролики с Kaylie Freeman и другое pthc. Давно пора прикрыть этот рассадник пороков но нет же, они решили почистить только яблочное облако. Считаю всю задумку яблок стрельбой из пушки по воробьям. 

Ответить
Развернуть ветку
Rodeus

Цель же у них не вклад в общее дело, а в очередной раз привлечь внимание аудитории к своим продуктам, удержать имеющуюся и качнуть долю из Андроида. Это бизнес.

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Валентин Тихомиров

Вообще не очень понятно зачем Apple это нужно. Результатов особо все равно не будет, разве что пиар нужен.

Ответить
Развернуть ветку
Lenya

Кук на конфе разработки этого кода...
- сейчас открою базу, а вы 
РУКИ НА СТОЛ!

Ответить
Развернуть ветку
Kirsan Kaifat
алгоритм срабатывает только при полном сходстве с базой данных изображений, на которых запечатлено жестокое обращение с детьми.

Т.е. где-то на серверах эпл лежат терабайты запрещенки

Ответить
Развернуть ветку
Lightning1707

Зачем следить за устройствами педофилов, поглядывать на их фото и потом ловить этих самых педофилов, если у Яблока хранится и так до черта и больше этих запрещённых картинок с детьми? Им нужно с себя начать, в первую очередь!

Ответить
Развернуть ветку
Benowi Bonro

Я что-то путаю или эпл раньше наоборот говорили, что они за приватность, что не будут сотрудничать? Правда это было лет 6 назад... А сейчас наоборот всё больше делают всякого разного, что противоречит их же заявлениям

Ответить
Развернуть ветку
Lightning1707

6 лет назад они и капусты меньше рубили. Сейчас они знают, что люди всё равно им деньги несут, что бы не произошло, поэтому Яблоку всё равно: в наглую говорят о том, о чём не следует говорить, но топят за право на частную жизнь и конфиденциальность. Шизофрения в последней стадии.

Ответить
Развернуть ветку
leha2014 leha2014

Огрызок профи в этом ?по этому знаю как выглядит детское порно ?

Ответить
Развернуть ветку
Алексей Почапский

База данных снимков? То есть Apple собрал крупнейшую в мире коллекцию детского порно? 

Ответить
Развернуть ветку
129 комментариев
Раскрывать всегда