Ne avevamo parlato ieri: Apple stava mettendo a punto una tecnologia che avrebbe rilevato le immagini perdopornografiche sugli icloud degli utenti, inoltrandole e segnalandole alle autorità. Ora apple sta affrontando critiche su un nuovo sistema che trova materiale per abusi sessuali su minori (CSAM)
E’ forte la preccupazione che tale tecnologia possa essere ampliata e utilizzata dai governi autoritari per spiare i propri cittadini.
Il capo di WhatsApp Will Cathcart ha definito la mossa di Apple “molto preoccupante”.
Apple ha detto che le nuove versioni di iOS e iPadOS – che dovrebbero essere rilasciate entro la fine dell’anno – avranno “nuove applicazioni di crittografia per contribuire a limitare la diffusione di CSAM online, mentre progettano per la privacy degli utenti”.
Il sistema rifererà una corrispondenza che viene quindi revisionata manualmente da un essere umano. Questa persona, può quindi adottare misure per disabilitare l’account di un utente e segnalare alle forze dell’ordine.
La società afferma che la nuova tecnologia offre vantaggi “significativi” sulla privacy rispetto alle tecniche esistenti – poiché Apple può visionare solo le le foto degli utenti solo se hanno una raccolta di materiale noto per abusi sessuali su minori nel loro account iCloud. Ovviamente, le foto in questione vengono riconosciute da un algoritmo e segnalate fisicamente a chi poi dovrà controllarle.
Ma Cathcart di WhatsApp afferma che il sistema “potrebbe essere facilmente utilizzato per scansionare contenuti privati per qualsiasi cosa decidano di voler controllare. I paesi in cui vengono venduti gli iPhone avranno definizioni diverse su ciò che è accettabile”.
Ma alcuni politici hanno accolto invece con favore lo sviluppo di Apple.
Sajid Javid, segretario alla sanità del Regno Unito, ha detto che è giunto il momento per altri, in particolare Facebook, di seguire l’esempio.
Anche il senatore americano Richard Blumenthal ha elogiato la mossa di Apple, definendola un “passo gradito, innovativo e audace”