Пользователь Reddit обнаружил код алгоритма Apple для проверки детского порно в iOS 14.3 и опубликовал его на GitHub Статьи редакции

Систему обещают включить только в iOS 15, но её код уже есть на всех устройствах с iOS 14.3, а теперь проверить его можно даже на Linux.

Пользователь Reddit под ником AsuharietYgvar опубликовал код алгоритма NeuralHash, который Apple будет использовать для проверки фотографий iCloud на детское порно. Он обнаружил следы системы на iOS 14.3 и провёл реверс-инжиниринг кода. Результат он выгрузил на GitHub.

Как отметил пользователь, ранние тесты показывают, что системе не мешает изменение размеров и сжатие изображений. В то же время её можно обмануть, обрезав исходную картинку или изменив её ориентацию. Это подтверждает заявления Apple о том, что алгоритм срабатывает только при полном сходстве с базой данных изображений, на которых запечатлено жестокое обращение с детьми.

Автор отдельно отметил, что обнаружил алгоритм уже на iOS 14.3 — актуальной версии системы, в которой функция не была заявлена. NeuralHash оказался скрыт за обфусцированными названиями классов, но после недолгого погружения в скрытые API пользователю Reddit удалось получить код алгоритма и воссоздать его на языке Python.

  • Apple объявила об усилении защиты детей в начале августа. Компания хочет бороться с проблемой в iMessage, iCloud и через Siri.
  • Пользователи, журналисты и эксперты по кибербезопасности раскритиковали одну из функций ещё до запуска. По задумке Apple все фотографии, выгружаемые в iCloud, будут проверять на соответствие базе данных снимков с жестоким обращением, но в соцсетях посчитали это нарушением приватности.
  • 9 августа Apple выпустила FAQ по новым функциям, чтобы развеять недоверие и пообещала не использовать для слежки систему по проверке фотографий iCloud на детскую порнографию.
0
132 комментария
Написать комментарий...
Barone Rosso

Тупо сравнивать хэши? Сомнительно. Вероятнее «слив» не более чем вброс для успокоения преступников. Нейросетке перевернуть картинку, обработать кроп как нечего делать. Другое дело заинтересованы ли они действительно бороться с производителями такого контента? Или будут собирать компромат на всех подряд, раскидывая ЦП по разным площадкам?

Ответить
Развернуть ветку
Ленин-гриб

Я одного понять не могу... Факт, что дети до 16 лет себя изучают, фотографируют, снимают и т. д. Ну и что им теперь, камерой пользоваться нельзя будет? Приезжает спецназ на вызов, а там выходит 12 летний "педофил"? Тятеньки, я сам себя фоталь... Так это будет? 😂

И, как, например, нейросеть определит детскую грудь от не детской, скажем 15 летней девушки и 18 летней... Это же миссия импоссибл. Короче, что-то эпл темнит... 

Ответить
Развернуть ветку
Andrey Vladimirsky

Так не работает. Сначала фото должно через какой-то другой источник (полицию, например) попасть в базу 

Ответить
Развернуть ветку
Ленин-гриб

Так а смысл? Они будут искать уже известное фото на устройствах? Тогда это бред и к безопасности не имеет никакого отношения, т. к. деяние уже совершено и находится в базе. Без идентификации лица и "свежести" фото это абсолютно несостоятельная система. 

Ответить
Развернуть ветку
Andrey Vladimirsky

Да. Есть известное фото и оно гуляет по порносайтам с СР. Кто его скачал - негодяй!

Ответить
Развернуть ветку
Ленин-гриб
 Да. Есть известное фото и оно гуляет по порносайтам с СР. Кто его скачал - негодяй!

Вообще нет. Скачать можно случайно, скачать могут вам посторонние люди, скачать может сам ребенок с устройства взрослого человека и т. д. Это неверная система. Если и осуждать кого-то, тем более за педофилию, то за совершенное деяние, все остальное — вымысел. Вот то, кому предназначалось это фото (если это еще вообще взрослый человек), то его и нужно как-то наказывать, остальное бред. Так оговорить любого можно.

Ответить
Развернуть ветку
Benowi Bonro

Так за хранение тоже наказание. И никто не будет разбираться это вы сами скачали или ваш ребёнок 

Ответить
Развернуть ветку
Ленин-гриб

Во-первых за хранение с целью распространения — если скачал, но не распространял (не выгружал), то нет наказания. И это правильно на все 100%, ибо скачать можно как угодно и все, что угодно.
Во-вторых, если есть художественная ценность — тут вообще поле непаханое, например снимки того же Гамильтона. Как это трактовать? Одного сажать, а другого нет? Фото половых органов — тюрьма, фото половых органов усыпанных мишурой через фильтр — художественная ценность? 
В-третьих, в медицинских целях — сейчас многие врачи говорят: "покажите фото, где там у вас экзема/герпес/болячка и т. д. п списку". И нет ничего плохого в том, чтобы родитель сфотографировал экзему/выделение с утра на телефон и показал врачу. Не нужно доходить до паранои. 

Примеров миллион и если мы будем залазить по каждому поводу в телефоны к семьям, то это может привести к плохим последствиям.

О чем я: педофилия плохо и взрослых нужно за нее наказывать, но искать фотографии на телефонах — дебилизм и не решает проблему вот вообще никак. Я о том, что все эти разговоры от Эпл про поиск педофилов — выдумка.

Ответить
Развернуть ветку
Benowi Bonro

Так я и не писал, что лезть в телефоны это хорошо.
А насчёт "я просто так скачал" это вы уже будете доказывать сами. И вряд ли докажете. 

Ответить
Развернуть ветку
Ленин-гриб
 А насчёт "я просто так скачал" это вы уже будете доказывать сами.

Нет. По закону должны доказать, что это вы не просто скачали, но и имеете к этому какое-то отношение. Иначе так посадить можно кого угодно и вас в том числе, прямо завтра, ссылочку откроете и закрывать можно. 

Ответить
Развернуть ветку
Benowi Bonro

Да. Но, если взять например другие случаи, если не будешь пытаться себя спасти, то вероятность, что тебя посадят выше.  Ну или кто-то тебе не поможет 

Ответить
Развернуть ветку
Ленин-гриб

Это вы про общую тенденцию, да она у нас сильно печальна, оборотней выше крыши. Если на таких попасть, то вообще без шансов почти, вспомнить хотя бы Голунова (а это цветочки просто).

Ответить
Развернуть ветку
Benowi Bonro

Я про него как раз и подумал 

Ответить
Развернуть ветку
129 комментариев
Раскрывать всегда