{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Apple усилит защиту детей — начнёт размывать откровенные снимки в «Сообщениях», проверять iCloud и предупреждать в Siri Статьи редакции

Компания будет проверять контент прямо на устройствах с помощью нейросетей, натренированных на распознавание сексуальных снимков.

Apple объявила о расширении функций для защиты детей на всех своих операционных системах — iOS, iPadOS, macOS и watchOS. Компания начнёт размывать откровенные снимки в «Сообщениях», предупреждать родителей о получении и отправке сексуальных фотографий, сканировать контент в iCloud и добавит руководства для безопасности в Siri.

Компания пояснила, что хочет защитить детей от «хищников, которые используют средства коммуникации для привлечения и эксплуатации». Для этого Apple внедряет новые опции в трёх областях: «Сообщениях», iCloud, а также в Siri — возможности разработали совместно с экспертами по детской безопасности.

Размытие откровенных снимков и предупреждение родителей в «Сообщениях»

С выходом iOS и iPadOS 15, watchOS 8, macOS Monterey приложение «Сообщений» начнёт использовать машинное обучение на каждом конкретном устройстве для распознавания откровенного контента. Алгоритмы будут локально сканировать фотографии, но сама Apple не получит доступ к данным — всё будет происходить на устройствах.

Изображение Apple

В случае получения откровенного контента «Сообщения» автоматически размоют снимок, а также расскажут детям о том, что они могут не смотреть подобные фотографии. Дети также не смогут отправить сексуальные фото — их предупредят, а родителям сообщат, если снимок всё же отправят или посмотрят.

Распознавание фото в iCloud и передача полиции данных о сексуальном насилии над детьми

Новые iOS и iPadOS также начнут бороться с распространением контента с сексуальным насилием над детьми (Child Sexual Abuse Material, CSAM). Apple будет распознавать откровенные фотографии в iCloud и передавать данные властям. В США технология позволит компании отчитываться об опасных случаях в Национальный центр пропавших и эксплуатируемых детей (NCMEC). Организация будет работать сообща с местными властями в разных штатах.

Сканирование снимков в iCloud также будет происходить приватно: для этого Apple будет использовать машинное обучение на устройствах. Нейросети начнут сопоставлять изображения из облачных хранилищ с хешами изображений, предоставленных NCMEC и другими организациями по детской безопасности. В Apple утверждают, что эта база данных будет нечитаемым набором хешей, которые безопасно хранятся на устройствах.

Проверку на сексуальное насилие над детьми будут проводить до выгрузки фотографии в само облако iCloud. Сравнение работает на криптографической технологии «пересечения приватных наборов» — она проводит сравнение, не выдавая результат. Устройство будет создавать безопасный криптографический ваучер, который расшифровывает результаты сравнения вместе с дополнительными данными о фотографии. Затем ваучер будут выгружать в iCloud вместе с изображением.

Apple также будет применять технологию «разделения секрета», которая позволит обезопасить ваучеры безопасности от расшифровки на стороне сервера до тех пор, пока пользователь не пересёк правила безопасности. В компании утверждают, что это гарантирует высокий уровень точности — система будет выдавать меньше одного из триллиона ложных результатов за год.

Только в случае фиксации нарушений сразу двумя технологиями Apple сможет интерпретировать контент ваучеров безопасности и сравнить изображения самостоятельно. Затем компания обещает вручную изучать каждый случай, чтобы подтвердить соответствие, отключит аккаунт пользователя и сообщит о нём в NCMEC. Пользователи смогут оспорить жалобу, если считают её ошибочной.

Новые руководства безопасности в Siri и подсказки в «Поиске»

Apple также начнёт лучше предупреждать и обучать юных пользователей систем и их родителей о том, как лучше вести себя в небезопасных ситуациях. Siri и «Поиск» вмешаются, когда пользователи попытаются найти связанные с CSAM данные — система объяснит, что это проблемные и болезненные темы и предложит почитать о них подробнее.

Siri также начнёт предлагать дополнительную информацию детям и родителям о том, как реагировать на эксплуатацию детей и сексуальное насилие. Например, если пользователи спросят голосового ассистента, как сообщить о CSAM, то их направят на соответствующие ресурсы.

В Apple обещают со временем расширять ресурсы для защиты детей. Новые функции станут доступны с выходом новых версий систем осенью 2021 года. Компания также предоставила дополнительную информацию о нововведениях в подробной документации, включая выжимку об использовании технологий, протоколы безопасности, и независимые технические консультации экспертов.

0
150 комментариев
Написать комментарий...
K. A.

Это ужасное решение, которое подрывает один из ключевых value proposition iPhone: пользователь сам контролирует свои данные.

Даже если они откатят это решение (а думаю, так и будет), сам факт того, что они это предлагали, будет иметь долгоиграющие последствия для всей индустрии.

Похоже на РКН. Начнём с детей, продолжим чем поинтереснее.

Только с дырой для обхода e2e. Мол, мы не расшифровываем сообщения, мы делаем on device matching и отсылаем в органы только подозрительные.

On Device СОРМ.

Ответить
Развернуть ветку
Филипп Дмитров

Ещё один чукча не читатель, чукча писатель.
Ничего никуда не отсылается. Сравнивается на устройстве и уходит только факт совпадения. «на том то устройстве сработало совпадение с оьъектом номер 100500».

Сравнивать с ркном затребовавшем в чистом виде хранить все и вся некорректно

Ответить
Развернуть ветку
K. A.
Ещё один чукча не читатель

Самокритично. Потому что первоисточник вы, действительно, явно не читали.

Only when the threshold is exceeded does the cryptographic technology allow Apple to interpret the contents of the safety vouchers associated with the matching CSAM images. Apple then manually reviews each report to confirm there is a match, disables the user’s account, and sends a report to NCMEC

Ну здесь будет

local state approved branch of Apple manually reviews each report to confirm there is a match, and sends a report to RKN

В том же Китае Apple не только данные хранит локально в стране, но и использует для этого местного подрядчика. А здесь местный подрядчик РФ будет ревьюить совпадения по «экстремистским» фото. А дальше и на сообщения расширят.

Ответить
Развернуть ветку
147 комментариев
Раскрывать всегда