Dopo la deroga approvata dal Parlamento UE lo scorso 6 luglio, con il conseguente disco verde per i fornitori di servizi di messaggistica (da WhatsApp a Messenger, passando per Gmail) a scansionare automaticamente le e-mail, i profili social e i messaggi su tutti i telefoni degli europei alla ricerca di materiale pedopornografico (c.d. chatcontrol), adesso è il turno di Apple, impegnata in prima linea nel contrasto agli abusi sui minori.
Con una decisione che ha destato tanti plausi quante perplessità, l’azienda di Cupertino ha messo a punto un sistema che permetterà di scansionare le foto archiviate su tutti gli iPhone e gli iCloud degli utenti, alla ricerca di immagini di abusi sui minori o materiale sessualmente esplicito riguardante i fanciulli. Il nuovo sistema, pensato per aiutare le forze dell’ordine nelle indagini penali, potrebbe aprire presto la porta ad altre richieste – magari giustificate dal contrasto al terrorismo o a crimini particolarmente efferati – a danno dei dati degli utenti.
Il sistema, chiamato NeuralMatch, “avviserà in modo proattivo un team di revisori umani se ritiene che vengano rilevate immagini illegali, che poi contatteranno le forze dell’ordine se il materiale dovrà essere oggetto di verifica“, si legge sul Financial Times, dando la notizia in anteprima. NeuralMatch, che è stato addestrato utilizzando 200.000 immagini proveniente dal database del National Center for Missing & Exploited Children, verrà lanciato per la prima volta negli Stati Uniti nei prossimi mesi. Le foto verranno sottoposte a hash e confrontate con un database di immagini contenenti abusi sessuali su minori.
Secondo le prime indiscrezioni, ogni foto caricata su iCloud negli Stati Uniti riceverà (o meno) un “bollino di sicurezza”, una sorta di luce verde che indicherà se l’immagine è dubbia oppure critica; una volta che un certo numero di foto sarà contrassegnato come sospetto, Apple consentirà a tutte le foto ambigue di essere decifrate e, se apparentemente illegali, trasmesse alle autorità competenti.
Accanto le lodi, però, qualche distinguo si è fatto sentire, come quello del Prof. Matthew Green, docente e crittografo della John Hopkins University che, proprio sull’impiego di tale tecnologia, non ha esitato a manifestare la propria perplessità: “Questo tipo di strumento può essere un vantaggio per trovare materiale pedopornografico nei telefoni delle persone“, ha detto Green. “Ma cosa potrebbe fare nelle mani di un governo autoritario?“.
Le maggiori preoccupazioni nascono dal fatto che il sistema di sorveglianza scansionerebbe le immagini non solo una volta giunte nel cloud, ma non appena esse raggiungono il telefono dell’utente, direttamente quindi nella memoria locale. Non si conoscono ancora le policy o maggiori dettagli, ma molti orchi, intanto, iniziano a tremare.
Ma la sottile linea di confine tra invasione della riservatezza a fini certamente lodevoli e rischio di controllo indiscriminato è dietro l’angolo, come sottolinea la ricercatrice Sarah Jamie Lewis, che non ha esitato a definire l’aggiornamento di Apple “un Rubicone per la privacy e la crittografia end-to-end”. In realtà, a ben vedere, il fiume è già stato guadato: “Apple ha appena spinto i suoi clienti oltre il limite. Quanto tempo pensate che passerà prima che il database venga ampliato per includere contenuti censure statali?”. La risposta, al momento, non c’è. Ma tutti sono sicuri che sarà questione di pochi mesi.