Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

Apple accusata di sottostimare i casi di pedopornografia su iCloud

Secondo l'NSPCC, la polizia ha investigato più casi di CSAM solo nel Regno Unito nel 2023 rispetto a quanto Apple ha segnalato globalmente per l'intero anno.
Apple accusata di sottostimare i casi di pedopornografia su iCloud
Secondo l'NSPCC, la polizia ha investigato più casi di CSAM solo nel Regno Unito nel 2023 rispetto a quanto Apple ha segnalato globalmente per l'intero anno.
Link copiato negli appunti

Apple è stata accusata di sottostimare gravemente la quantità di materiale pedopornografico (CSAM) presente sui suoi servizi, come iCloud e iMessage. Dopo anni di controversie riguardo ai piani di scansione di iCloud per individuare materiali di abuso sessuale su minori, Apple ha abbandonato tali piani l'anno scorso. Ora, esperti di sicurezza infantile sostengono che l'azienda non solo non segnala adeguatamente il CSAM scambiato e archiviato sui suoi servizi, ma fallisce anche nel riportare tutto il CSAM identificato.

La National Society for the Prevention of Cruelty to Children (NSPCC) del Regno Unito ha condiviso con The Guardian dati della polizia britannica che mostrano come Apple "sottostimi notevolmente" la frequenza con cui il CSAM viene trovato globalmente sui suoi servizi. Secondo l'NSPCC, la polizia ha investigato più casi di CSAM solo nel Regno Unito nel 2023 rispetto a quanto Apple ha segnalato globalmente per l'intero anno.

Meta e Google segnalano milioni di casi di CSAM all'anno, Apple solo un paio di centinaia

Tra aprile 2022 e marzo 2023, in Inghilterra e Galles, l'NSPCC ha rilevato che "Apple è stata implicata in 337 reati registrati di immagini di abuso su minori." Tuttavia, nel 2023, Apple ha segnalato solo 267 casi di CSAM al National Center for Missing & Exploited Children (NCMEC), presumibilmente rappresentando tutti i casi di CSAM sulle sue piattaforme a livello mondiale.

Le grandi aziende tecnologiche negli Stati Uniti devono segnalare il CSAM al NCMEC quando viene trovato, ma mentre Apple riporta un paio di centinaia di casi annualmente, i suoi grandi concorrenti come Meta e Google ne segnalano milioni, secondo il rapporto del NCMEC. Gli esperti hanno espresso preoccupazione che Apple "chiaramente" sottostimi il CSAM sulle sue piattaforme.

Finora, Apple non ha commentato il rapporto dell'NSPCC. Lo scorso settembre, Apple ha risposto alle richieste della Heat Initiative di rilevare più CSAM, affermando che, piuttosto che concentrarsi sulla scansione di contenuti illegali, la sua attenzione è rivolta a connettere direttamente gli utenti vulnerabili o vittimizzati con risorse locali e forze dell'ordine che possono assisterli nelle loro comunità.

Ti consigliamo anche