Migliaia di foto di ignari utenti carpite dal Web e date in pasto a enormi cervelloni con l’unico scopo di migliorare i sistemi di riconoscimento facciale. È l’ennesimo scandalo che travolge il mondo della tecnologia, sempre più doveroso di una regolamentazione etica prima che giuridica
Non bisogna certo disporre di capacità divinatorie particolarmente allenate per intravedere tutte le criticità sottese alle nuove evoluzioni tecnologiche recentemente descritte da LabParlamento, come i nuovi sistemi di riconoscimento facciale rispondenti al nome di FaceApp o Zao.
Il rischio, per queste applicazioni, di trasformarsi da software ludici a piattaforme sovversive, però, è dietro l’angolo. L’innovazione fa sempre più paura, lambendo la vita privata di inconsapevoli cittadini che, forse con eccessiva inconsapevolezza, si sono fidati di social, smartphone e piattaforme web per mettere in bella mostra o condividere i propri ricordi, le foto dei figli o – talvolta – le parti più intime di loro stessi, perdendo successivamente il controllo sulle immagini caricate sul web.
L’ultimo scandalo è targato “MegaFace”, ovvero un enorme database di volti di adulti e bambini, aspetti destinati ad implementare i sistemi di riconoscimento facciale. MegaFace è la più grande biblioteca di immagini di persone esistenti, raccolte liberamente sul web ed utilizzate per “addestrare” i suoi algoritmi, così da perfezionare i sistemi di riconoscimento visivo. I nuovi mostri informatici così prodotti vengono messi a disposizione di società del calibro di Google, Amazon, Mitsubishi e Philips, così da essere utilizzati da questi ultimi per realizzare sistemi di identificazione facciale, e poter collegare qualsiasi persona ad un nome e cognome semplicemente da una ciglia, un neo o uno sbavo di rossetto.
Al momento si stimano che 672 mila persone, per un totale di 4 milioni di foto, siano state coinvolte in questo rastrellamento fotografico (non autorizzato, seppur legale) di MegaFace, che ha attinto principalmente a Flickr per creare un’enorme banca dati e dare in pasto ai suoi sistemi le immagini. Per creare sistemi sempre più perfetti da utilizzare per scandagliare i manifestanti in piazza, individuare con prontezza i dati di chi transita su una strada o, ancora, riuscire a spogliare qualsiasi immagine di persona caricata online, come raccontato nel nostro approfondimento sul Deepnude.
MegaFace non è un caso isolato. Di tali “palestre” per algoritmi ne esistono almeno 200, con una dotazione di diverse milioni di immagini che coinvolgerebbero altrettante persone.
Cosa farsene di un sistema di riconoscimento facciale? Gli scopi sono diversi, più o meno etici (e leciti). Tra le azioni più nobili rientrano certamente fini di sicurezza, anche se talvolta abusando di tale emergenza, tali applicazioni trovano uso nei più svariati campi. SenseTime, ad esempio, è un database sviluppato da una società privata e usata dal governo cinese per monitorare la minoranza musulmana degli Uiguri presente nella Repubblica Popolare. Oppure c’è NtechLab, società che ha sviluppato algoritmi in grado di individuare la presenza di stranieri nella metropolitane russe, manco a dirlo presa subito a braccetto dal Cremlino e utilizzata in maniera preventiva su tutti i mezzi di pubblico trasporto.
Che di etica anche in questo campo ci sia bisogno lo rivela l’ultima trovata di Google che, tramite una società collegata, ha utilizzato dei senzatetto per alimentare il proprio database di immagini facciali. Sperando se non altro che, in cambio di una foto, questa gente abbia ottenuto almeno un caffè, utile a superare le fredde notti americane.