Apple ha annunciato giovedì nuove funzionalità che eseguiranno la scansione delle foto degli utenti di iPhone e iPad per rilevare e segnalare grandi raccolte di immagini di abusi sessuali su minori archiviate sui suoi server cloud.
“Vogliamo aiutare a proteggere i bambini dai coloro che utilizzano strumenti di comunicazione per reclutarli e sfruttarli e limitare la diffusione di materiale per abusi sessuali su minori (CSAM)“, ha detto Apple in una dichiarazione.
“Questo programma è ambizioso ed è volto a proteggere i bambini, è una responsabilità importante”, ha affermato. “I nostri sforzi si evolveranno e si espanderanno nel tempo.”
Apple ha detto che il lavoro di rilevamento avviene sul dispositivo e ha insistito sul fatto che solo le persone che hanno grandi raccolte di immagini caricate su iCloud che corrispondono a un database di materiale riconducibile ad abusi sessuali su minori saranno sottoposte all’analisi da parte di Apple.
Notando che possedere materiale pedopornografico “è un atto illegale”, il chief privacy officer di Apple, Erik Neuenschwander, ha detto in una chiamata giovedì ai media, che “il sistema è stato progettato e addestrato” per rilevare immagini di questo tipo.
Neuenschwander ha detto anche che alle persone le cui immagini sono state messe in “lista nera” alle forze dell’ordine non sarebbe stato notificato nulla e che i loro account sarebbero stati disabilitati automaticamente.
“Il fatto che gli account saranno disabilitati sarà comunque un atto facilmente notabile dal ogni utilizzatore”, ha detto Neuenschwander.