Apple будет сканировать фотографии на наличие сексуального насилия над детьми

Apple будет сканировать фотографии на наличие сексуального насилия над детьми

в iCases Blog

Что нового в iOS 15?

На сайте Apple можно ознакомится об расширении программы по защите детей. Если коротко, то с выходом новых iOS 15, iPadOS 15, watchOS 8 и macOS Monterey, будет внедрена система, которая будет сканировать фотографии на наличие CSAM. Что это значит? Apple будет контролировать и препятствовать сексуальному насилию над детьми.

Скан фотографий будет происходить непосредственно на iPhone | iPad | Apple Wathc | MacBook, а не в iCloud. Снимки на устройствах будут проверяться на сходство с детьми, которые пропали без вести, представленных NCMEC и другими организациями. Важно отметить, что сканировать будут не сами снимки, а хеш изображений.

Что такое хеш изображений?

Хеш изображений — это набор символов (пример: h24Klsa6hpas6y3I91POSj7), которые понятны только машинам. Хеш помогает нейросетям определять, собственно, что изображённое на фотографии. С этого можно делать вывод, что проверятся будут не сами фотографии, а цифровые отпечатки фото (набор символов).

Что будет с фотографиями?

Хеши изображений будут сохраняться на гаджете пользователей. В Купертино не разглашают кто будет иметь доступ к ключам дешифровки. Пока известно только то, что эти хеши изображений вернуть назад в фотографии невозможно.

Один из главных вопросов в этом нововведении — как система будет определять возраст человека на снимках? Пока мало что понятно, пользователи задаются множеством вопросов, но не имеют на них ответов. Будем держать в курсе наших читателей и публиковать любые прояснения, новости по этому поводу.

Добавить комментарий
Еще статьи по теме