Continua a suscitare polemiche l’utilizzo, da parte dell’Ucraina, dell’app di riconoscimento facciale “Clearview”. Il Ministero della Difesa di Kiev, infatti, ha recentemente avuto libero accesso alle piene funzionalità dell’applicazione, dopo che la società americana ha offerto i suoi servizi al governo ucraino con lo scopo di aiutare a combattere la disinformazione e identificare i caduti sul campo. Tuttavia, sin da quando l’opinione pubblica è venuta a conoscenza del fatto che l’esercito di Volodymyr Zelensky si sta affidando a questo tipo di tecnologia, sono state sollevate numerose perplessità in merito.
Non è insolito che in zone di guerra si collaudino strumenti e tecnologie di sorveglianza, tanto innovative quanto invasive. Sulla scorta di questi forti precedenti, anche nel teatro bellico orientale il riconoscimento facciale di Clearview può tornare utile alla causa ucraina, anche se avanza lo spettro della pericolosità di tale tecnologia, specie quando tali stessi mezzi potrebbero essere usati per controllare le attività dei civili, con buona pace della privacy. In particolare, le paure legate all’IA di “Clearview” sono aumentate da quando si è scoperto che il governo ucraino usa l’app per identificare i soldati russi uccisi in combattimento e inviare la notizia alle loro famiglie, come reso palese dal vice primo ministro ucraino Mykhailo Fedorov.
Precisamente, il fine di tale pratica sarebbe quello di usare l’app per mettere in guardia le famiglie russe sul prezzo pagato in questo conflitto, visto che, invece, Mosca tenderebbe a nascondere il numero e l’identità dei propri morti. Il dubbio alla base delle perplessità espresse dall’opinione pubblica internazionale, tuttavia, è che lo strumento possa essere lo spunto per trasmettere informazioni false, sia volutamente ai fini della propaganda oppure involontariamente a causa di errori del sistema, che finirebbero per esacerbare ulteriormente gli animi. Cosa potrebbe accadere, ad esempio, se l’Intelligenza Artificiale identificasse erroneamente i caduti? Come potrebbero reagire i familiari, a prescindere a quale fazione appartengano le salme, alla falsa notizia della morte di un loro caro?
A tal proposito, bisogna considerare anche il fatto che, negli ultimi anni, la società “Clearview” ha sollevato più di una preoccupazione sull’affidabilità dei dati raccolti e su possibili violazioni della privacy. Un timore, questo, evidenziato anche dal Garante per la privacy italiano, che ha condannato la società per aver violato le leggi sulla riservatezza, ordinandole di cancellare tutti i dati raccolti sui residenti nostrani. Ma i dubbi non si fermano qui.
Una buona fetta dell’opinione pubblica, appunto, è dell’idea che aziende come “Clearview” sfruttino la crisi in Ucraina per sperimentare e normalizzare l’uso di software potenzialmente dannosi, nonché invasivi. Insomma, c’è il serio e concreto rischio che si stia sperimentando un’applicazione i cui confini potrebbero diventare molto labili, anche a conflitto finito. Basti pensare che le autorità di Kiev hanno sfruttato il software per verificare che i viaggiatori in Ucraina siano chi realmente dichiarino di essere; una situazione al limite, questa, in cui eventuali errori potrebbero causare incidenti diplomatici difficili, poi, da gestire.