Apple 5 августа 2021, 22:59 5 августа 2021, 23:59 6 августа 2021, 00:59 6 августа 2021, 01:59 6 августа 2021, 02:59 6 августа 2021, 03:59 6 августа 2021, 04:59 6 августа 2021, 05:59 6 августа 2021, 06:59 6 августа 2021, 07:59 6 августа 2021, 08:59

Официально: галерея iPhone будет сканироваться на предмет насилия над детьми

Apple официально заявила о появлении в iOS системы, которая будет автоматически сканировать локальную медиатеку на предмет изображений жестокого обращения с детьми.

Компания Apple подтвердила информацию о том, что на айфонах появится система, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми, включая детскую порнографию (CSAM). Первой новая функция заработает в США позднее в этом году, после выхода операционных систем iOS 15, iPadOS 15 и macOS Monterey.

К CSAM относится контент, на котором изображены действия сексуального характера в отношении несовершеннолетнего. В Apple заявили, что "новая технология в iOS и iPadOS" будет сопоставлять хэши (то есть не сами изображения, а их цифровое представление) фото и видео, хранящихся в галерее устройства, с имеющейся базой материалов насилия над детьми, а в случае совпадений — уведомлять об этом Национальный центр пропавших и эксплуатируемых детей (NCMEC), который тесно сотрудничает с правоохранительными органами США. Какая именно технология или нейросеть будет применяться Apple, не уточняется.

Набор "цифровых отпечатков", идентифицирующих объекты и сцены как CSAM-контент, будет предзагружаться на устройство. Базу хэшей предоставят NCMEC и другие организации по защите прав и интересов детей. В Apple отмечают, что "эта база данных будет преобразована в нечитаемый набор хэшей, который надежно хранится на устройствах пользователей".

Несмотря на то что само сканирование выполняется локально, анализироваться будет только контент, загруженный в облачный сервис iCloud. Более того, уведомление о потенциально противоправном детском контенте, во избежание ложных срабатываний, будет направляться в Apple только по достижении определенного порога совпадений.

Какое количество изображений должно быть помечено как подозрительные, прежде чем компания заявит об этом в NCMEC, не раскрывается. Однако представители Apple заявляют, что вероятность ошибки не превышает 1 на 1 триллион аккаунтов в год.

В Apple введут и другие инициативы по защите детей. В частности, на аккаунт ребенка, подключенный к iCloud Family ("Семейный доступ"), теперь будет выдаваться предупреждение при получении или попытке отправить фотографию откровенного сексуального характера в мессенджере iMessage ("Сообщения"). За анализ снимков будет отвечать система машинного обучения.

Получаемое сообщение потенциально нежелательного содержания будет размытым. Если ребенок все же решит открыть вложение, его предупредят, что оповещение об этом получат родители. Во всплывающем окне также будет иметься ссылка для получения дополнительной помощи.

Подчеркивается, что все передаваемые через iMessage сообщения останутся защищены сквозным шифрованием и не будут доступны никому, включая Apple. В США эта функция заработает "позднее в этом году для учетных записей, подключенных к семейному доступу в iCloud".

Читайте также

Видео по теме

Эфир

Лента новостей

Авто-геолокация