Dopo le clip-fake su Nancy Pelosi, Barack Obama e Donald Trump, il fenomeno dei “video artificiali” irrompe anche al di qua dell’Atlantico. Il recente caso che ha coinvolto Matteo Renzi sui social media mostra, una volta di più, il lato oscuro dell’intelligenza artificiale
Il falso video trasmesso da “Striscia la Notizia” in cui Matteo Renzi prende in giro i suoi avversari politici con gesti decisamente poco ortodossi ha acceso, anche nel nostro Paese, l’inquietante polemica sui cosiddetti ‘deepfake’, ovvero dei brevi filmati prodotti utilizzando intelligenza artificiale e deep learning, tanto da modificare i contenuti originali e presentare come autentico qualcosa che in realtà non esiste. Questa volta Maurizio Crozza non centra nulla. Non si è trattato di una burlesca imitazione, come ha creduto inizialmente lo stesso Renzi, ma di un software basato sulle nuove tecnologie in grado di produrre scene apparentemente reali.
L’ex premier, ora alla guida di Italia Viva, è il primo politico italiano ad aver subìto una fraudolenta alterazione della propria immagine, iniziativa che ha subito posto in evidenza un nervo scoperto nel mondo dell’informazione. Da divertimento per i telespettatori a potenziale arma politica di incredibile potenza il passo è davvero breve. Immediata la levata di scudi contro questo nuovo sistema di bufale, apparso subito molto pericoloso, in special modo quando le vittime sono uomini delle istituzioni che, nel veicolare qualsiasi tipo di messaggio, possono risultare perfettamente credibili e influenzare i pensieri di decine di milioni di cittadini.
E ciò tanto più se si considera che la nostra tendenziale “pigrizia cognitiva” (su cui – vale la pena ricordarlo – fa leva anche la pratica del phishing) ci porta a credere che un messaggio diffuso da qualcuno all’interno della grande rete sia attendibile by default senza preoccuparci di verificarlo.
Ma, come se non bastasse, la qualità dei contenuti deepfake è cresciuta cosi rapidamente che è sempre più difficile distinguere le immagini reali da quelle false, rendendo sfidante replicare “a colpi di tecnologia” una scia che desta notevoli preoccupazioni, avvalorate anche dalla parola dei ricercatori. Secondo le previsioni di Hao Li, professore di Computer Science alla University of South California, tra sei mesi, un anno al più, potremmo assistere a video deepfake del tutto e per tutto indistinguibili dal reale. Il che porta a concludere, da più parti, come non sia possibile ipotizzare soluzioni di contrasto che siano solo di stampo normativo e tecnologico.
È necessario, forse allora, seguire anche un approccio ‘etico’ nelle trasformazioni tecnologiche, incentivando la formazione di un nuovo senso di responsabilità globale, così da garantire che gli algoritmi dell’intelligenza artificiale siano progettati secondo canoni di non discriminazione e di rispetto della persona.
Da più parti, dunque in queste ore, si sta facendo appello al software ethics, principio cardine dell’éra della prima di Internet – degli hacker guidati dal senso di responsabilità – secondo cui il software dovrebbe funzionare conformemente al quadro valoriale dettato dalla Carta dei diritti fondamentali dell’Unione europea europea e dal contesto sociale e morale in cui esso viene applicato.
Gli esiti non sono del tutto scontati, e cosa accadrà nel prossimo futuro pochi sono in grado di dirlo. Ma è sicuro che, di questo passo, nessuno saprà più distinguere Emma Watson o Scarlett Johansson (anche loro vittime di deepfake), con buona pace della statuetta dell’Oscar che, a questo punto, dovrà essere assegnata ad un’intelligenza artificiale qualsiasi.