La piega assunta dalle nuove tecnologie preoccupa e suscita forti dubbi sul nuovo «Umanesimo digitale». Fanno capolino forme digitali di dubbia utilità sociale, mettendo a rischio lo sviluppo della stessa coscienza umana. Ma il bello deve ancora venire: con il calcolo computazionale delle nuove macchine, tra codici e algoritmi, la verità e l’etica saranno fortemente a rischio
Una febbre senza fine, una corsa senza ritorno. Un virus contagioso sta infettando i programmatori di tutto il mondo, innescando una sfida all’ultimo software. Anche se non è ancora chiaro quale sarà il premio per chi riuscirà a spingersi oltre le colonne d’Ercole della tecnologia, neanche il tempo di abituarci (impotenti) al nuovo fenomeno del deepfake, che già questa tecnologia appare superata.
L’ultima trovata è l’applicazione che, basandosi su una evoluzione proprio della tecnologia deepfake – il DeepNude -, offre la possibilità di “spogliare” qualsiasi personaggio. Proprio come i mitici occhiali a raggi X tanto in voga negli anni ’70, partendo da una fotografia o un breve video, grazie all’intelligenza artificiale sarà possibile togliere i vestiti a qualsiasi individuo la cui immagine è presente sul web. Fondato sui medesimi razionali dei deepfake, con i programmi di deepnude sarà possibile denudare il personaggio ritratto, sia esso un attore famoso o la nostra sconosciuta (ma attraente) vicina di casa, con un semplice clik. Basta, dunque, entrare in possesso di una fotografia liberamente disponibile sulla rete per avere a disposizione l’immagine di chiunque come mamma l’ha fatto.
Gli scenari che si aprono appaiono piuttosto inquietanti. Nella versione gratuita l’App (adesso prontamente rimossa dal web da parte del suo stesso autore, forse vittima della voce della propria coscienza) permetteva di spogliare il personaggio dei sogni, ma con un bollino “fake” bene in vista. Ma nella versione a pagamento, per soli 50 dollari, era possibile ottenere un’immagine completamente nitida e senza avvisi, facilmente rivendibile come autentica. L’orlo di un precipizio.
Sulla scia del DeepNude, già molte sotto-categorie di siti hard, oggi, sono pieni di deepfake di vip e personaggi famosi. La tendenza non potrà essere a lungo tenuta a bada, e presto esploderà in tutta la sua virulenza. Quali saranno le conseguenze di un’immagine deepnude di un’ignara adolescente la cui unica colpa è quella di aver postato una foto (rigorosamente vestita) su uno dei tanti social network? Come minimo un ricatto o un’estorsione.
Le contromosse non si sono fatte attendere: Google ha prontamente messo a disposizione dei ricercatori un database con migliaia di deepfake, così da prevenire la diffusione di sembianze tarocche. Ma è come raccogliere il mare con un cucchiaio. Utilizzando i sistemi Cloud, la potenza computazionale delle macchine è maturata sensibilmente, ed è destinata a crescere esponenzialmente nei prossimi anni. E non sempre a vantaggio del bene.
Deepfake e deepnude nuova frontiera della degradazione tecnologica? Neanche per sogno. Il futuro si chiamerà “Computational propaganda”, ovvero l’automazione della pubblicazione di “bufale” online ininterrottamente per un determinato periodo di tempo, come ad esempio una campagna elettorale. Un fenomeno che, grazie (o a causa) dell’intelligenza artificiale, esploderà a breve e non avrà neanche bisogno dell’azione umana. Saranno direttamente le macchine a immettere in rete notizie false e tendenziose, così da distrarre gli utenti e suggestionare l’opinione pubblica.
Se immaginate che la propaganda computazionale sia opera di nerd avvelenati con la politica vi sbagliate di grosso. Alcuni stati nazionali stanno già affinando le ricerche volte a governare il profluvio di notizie fake a sostegno della loro azione di governo. Secondo uno studio dell’Oxford University, dal 2010 ad oggi si sono registrate almeno 28 campagne “statali” di manipolazione dei social media.
Dimenticate, insomma, le armi atomiche. Presto, la nuova baia dei Porci, si chiamerà deep learning. E gli effetti saranno molto più devastanti di quelli immaginati da JFK.