Secondo uno studio pubblicato lo scorso settembre, il 96% dei falsi video fa riferimento alla pornografia. Segue la politica e aumentano le frodi informatiche. Senza correttivi etici, rovinare la rispettabilità di una persona o danneggiare la reputazione di un’azienda sarà come bere un bicchier d’acqua
Il falso video trasmesso da “Striscia la Notizia” lo scorso ottobre, già raccontato da LabParlamento, in cui Matteo Renzi prendeva in giro i suoi avversari politici, ha avuto almeno il merito di far salire agli onori della cronaca l’inquietante tecnologia dei ‘deepfake’, ovvero i brevi filmati prodotti utilizzando l’Intelligenza artificiale. Modificare i contenuti originali e presentare come autentico qualcosa che in realtà non esiste non è mai stato così semplice. Grazie a complessi software basati sulle nuove tecnologie, è adesso possibile sintetizzare ogni immagine umana e inserirla nei contesti più disparati, partendo da qualsiasi contenuto disponibile liberamente su Internet.
Da arma politica a perversione 2.0 il passo è davvero breve. E infatti gli ingegneri del web hanno già inaugurato una sotto-categoria di deepfake, ovvero il DeepNude, applicazioni che, basandosi su una serie di algoritmi molto più avanzati rispetto a quelli di deepfake, offrono la possibilità di “spogliare” qualsiasi persona. Già molte sottocategorie di siti hard, oggi, sono piene di deepnude riguardanti vip e personaggi famosi.
Che il futuro dei deepfake sia il porno è confermato anche dal recente Rapporto della società di sicurezza informatica Deeptrace dal titolo piuttosto evocativo “The state of Deepfakes”, primo studio nel suo genere, utilizzato dalla società olandese (ma guidata dall’italiano Giorgio Patrini) per sensibilizzare gli individui e le organizzazioni dagli impatti dannosi dei media sintetici generati dall’Intelligenza artificiale.
Secondo il citato Rapporto la pornografia basata sui fake creati artificialmente è di gran lunga il tipo più diffuso di deepfake (il 96% di tutto il materiale farlocco in rete appartiene a questa categoria). Gli effetti dannosi di tale modello di falsi hanno già influito in modo significativo sulla vita di numerose donne, tra cui celebrità e privati.
Il fenomeno, purtroppo, non è destinato a sgonfiarsi. Anzi. Il numero di video manipolati ad arte oggi disponibile è raddoppiato rispetto al 2018: a settembre 2019 si contavano qualcosa come 14.678 video contraffatti, quasi totalmente hard.
Il numero di questi deepfake suggeriscono che i falsi pornografici potrebbero rappresentare una notevole opportunità di business, invogliando i siti web alla crescente pubblicazione di tali video così da aumentare gli abbinamenti e la raccolta pubblicitaria a margine dei filmati.
Altro ambito analizzato dal Rapporto è quello dedicato ai falsi “politici”, immagini molto in voga sul web. Il potenziale di questi filmati è in grado di minare i processi democratici, e già oggi essi registrano un impatto dirompente sulla sfera politica. Il caso preso ad esempio dai ricercatori di Deeptrace è il falso relativo a Nancy Pelosi del maggio 2019, in cui la speaker della Camera a stelle e strisce appariva rallentata, quasi ubriaca. La versione fake del video è diventata virale sui social media ed è stato ritwittato anche dal presidente degli Stati Uniti Trump, ricevendo oltre 2 milioni di visualizzazioni nelle 48 ore successive al caricamento iniziale e oltre 6.3 milioni di visualizzazioni sino all’estate scorsa.
Le contraffazioni non guardano in faccia a nessuno. A farne le spese anche Mark Zuckerberg, Kim Kardashian e Donald Trump, con video altamente esilaranti ma del tutto inventati.
Da qualsiasi prospettiva si voglia analizzare la questione, i dati esposti nel Rapporto evidenziano come non sia possibile ipotizzare adeguate soluzioni di contrasto che siano soltanto di stampo informatico e normativo. È forse necessario, allora, seguire anche un approccio ‘etico’ nel processo di evoluzione e di diffusione delle nuove tecnologie, incentivando la formazione di un rinnovato senso di responsabilità a livello globale. Inoltre, occorre garantire che gli algoritmi dell’intelligenza artificiale siano progettati secondo precisi canoni di non discriminazione. Sperando che, nel mondo ipervirtuale, il rispetto della persona non sia considerata come ulteriore fantascienza.