Ma serve maggiore educazione digitale di PA e cittadini. Verga (AgID) discute rischi e opportunità dell’AI
di Valentina Magri
Per la prima volta l’intelligenza artificiale è diventata una questione pubblica. Merito del primo libro bianco sul tema dell’AI, firmato dall’Agenzia per l’Italia Digitale. Labparlamento ne ha parlato con Enrico Verga, consulente, business analyst per numerose testate giornalistiche, membro della task force per l’intelligenza artificiale dell’Agenzia per l’Italia Digitale (AgID).
Cos’è l’Intelligenza Artificiale?
“Ci sono due forme di intelligenza artificiale (AI). Quella che tutti riteniamo di conoscere è la singolarità, ossia una forma di vita intelligente, non di origine biologica, che può superare il test di Turing (quel test che stabilisce se una macchina sia in grado di pensare o meno, ndr). Nella finzione cinematografica, è il computer Hal 9.000 di “2001: odissea nello spazio”. Ad oggi, questa forma di AI non è ancora disponibile.
Oggi si stanno discutendo e portando avanti le protointelligenze, ossia AI molto limitate, con funzioni ben specifiche e che hanno alla loro base algoritmi più o meno impostati. Un esempio è l’algoritmo alla base delle elezioni di Hillary Clinton, che definiva dove dovesse fare presenze e conferenze durante la campagna elettorale. Non ha sbagliato questo algoritmo, ma chi non gli ha fornito abbastanza informazioni.”
Quali sono i rischi dell’AI?
“Asimov scrisse le sue famose tre leggi della robotica. Ma verso la fine delle sue riflessioni su queste leggi, ne pose una quarta, meno conosciuta, che recita: Un robot non può danneggiare l’umanità o per inazione permettere che l’umanità si possa danneggiare. Questa legge portata all’estremo scardina la prima e la seconda legge di Asimov. Una intelligenza artificiale quando deve eseguire un compito, lo fa senza porsi domande e potrebbe quindi comportarsi in modo non etico, secondo il suo creatore. Un altro rischio, meno immediato, è che se l’AI sostituisca il lavoro dei burocrati, che dovrebbero essere formati nuovamente e riposizionati in termini lavorativi. Il che è fattibile per i dipendenti giovani, meno per i cinquantenni.”
Che opportunità offre l’intelligenza artificiale alla PA?
“Sicuramente una volta implementata può essere un vantaggio per processi complicati e con attività ripetitive e noiose, ad esempio la gestione del catasto, gli atti pubblici, la gestione di informazioni per gli studenti che vogliono fare domanda per un Erasmus. Ci sarebbe uno snellimento dei percorsi burocratici, ad esempio per aprire delle attività commerciali e chiedere dei documenti catastali. In Estonia già oggi si possono ricevere informazioni su una persona da parte di un ente governativo in tempo reale grazie all’AI.”
Che genere di competenze servono a cittadini e pubbliche amministrazioni per sviluppare l’AI?
“Serve un’educazione digitale, che però in Italia non abbiamo. Dai 45 in poi c’è un’assenza di alfabetizzazione digitale e bisogna intervenire a formare le persone, mentre i più giovani sono autodidatti. Il problema dell’alfabetizzazione digitale è importante perché la popolazione invecchia e quindi gli servirà sempre più supporto, umano ma anche digitale. C’è poi una tendenza nella burocrazia a essere scarsamente permeabile alle novità per indolenza, disinteresse, timore che danneggi il suo lavoro, mancanza di tempo. La PA deve aggiornare se stessa in chiave digitale per valorizzare le risorse dell’AI.”
Quali sfide pone la regolamentazione dell’intelligenza artificiale?
“Poniamo che un drone militare sia lasciato indipendente e la sua programmazione gli imponga di colpire un bersaglio alto almeno 1,30 m e con un oggetto assimilabile a un’arma. Se il drone colpisce un bambino che gioca con un fucile giocattolo, sarebbe un danno d’immagine per l’esercito. Se un’intelligenza artificiale fornisse per esempio informazioni catastali sbagliate danneggiando un cittadino, quest’ultimo potrebbe fare causa al catasto, ma bisognerebbe poi dimostrare la colpevolezza di quest’ultimo. Dare la discrezionalità totale a intelligenze artificiali per interagire tra loro e prendere decisioni finali senza una supervisione umana è il rischio maggiore, da evitare sia oggi che in futuro. La scelta migliore ad oggi è che ogni comportamento di un’intelligenza artificiale sia confermato e autorizzato da un essere umano.”