Vietare l’uso dell’Intelligenza Artificiale (IA) per sorvegliare i cittadini dell’Unione europea, attraverso l’uso di sistemi biometrici, riconoscimento delle emozioni o per mezzo di pratiche di “polizia predittiva”. Ma non soltanto: nuove regole per ridurre i rischi dell’innovazione “spinta”, proibito influenzare gli elettori durante le competizioni elettorali utilizzando gli algoritmi, maggiore trasparenza per i sistemi di IA generativa come ChatGPT.
Questo, in estrema sintesi, la posizione negoziale del Parlamento europeo sulla legge “Intelligenza Artificiale”, con 499 voti a favore, 28 contrari e 93 astensioni. Un percorso, quello della Plenaria di Strasburgo, orientato a mettere nero su bianco norme volte a proteggere salute, sicurezza, diritti fondamentali e democrazia.
“Con l’avvento dell’Intelligenza artificiale, viviamo in un’epoca di profonde trasformazioni nel mondo del lavoro. L’IA offre nuove opportunità e soluzioni innovative che possono migliorare l’efficienza, la produttività e la qualità dei cicli produttivi. Tuttavia, è fondamentale affrontare queste trasformazioni con cautela e garantire che l’introduzione dell’IA nella quotidianità avvenga in modo responsabile ed equo” ha dichiarato il Presidente nazionale di CIU-Unionquadri,Gabriella Àncora, Confederazione sindacale che tutela i quadri nel settore privato e pubblico, ma anche i ricercatori, i professionisti dipendenti ed il mondo delle professioni intellettuali, presente al CNEL e al Comitato Economico e Sociale Europeo – CESE.
Particolare attenzione, da parte del Parlamento UE, è stata posta poi sui sistemi di IA generativa – ChatGPT ne è solo un esempio – al fine di mettere in guardia gli utenti dalla manipolazione di contenuti audio, video o immagini che sembrano del tutto autentici, ma in realtà realizzati da una macchina. La versione ultima del regolamento sottolinea che anche i sistemi di IA generativa saranno obbligati a rispettare i requisiti di trasparenza e correttezza e, per farlo, saranno tenuti a pubblicare una dichiarazione nella quale dovrà inequivocabilmente emergere che quei contenuti sono stati generati grazie all’aiuto dell’Intelligenza artificiale, diminuendo in tal modo il rischio di inganno e sofisticazione.
“Le ultime novità in tema di regolamentazione dei contenuti generativi vanno in linea con quanto annunciato recentemente dalla Commissione europea, ovvero l’invito rivolto alle piattaforme online di etichettare chiaramente il testo, le foto e altri contenuti generati da IA per non esporre il fianco agli inganni tecnologici”. “Non bastano purtroppo solamente gli accordi volontari nella lotta alla disinformazione, ma deve esserci la chiara pretesa da parte del legislatore europeo di poter accertare con sicurezza tali contenuti ed identificarli in modo chiaro. Se non si adottasse un tale approccio, sarebbe come riconoscere implicitamente il diritto di parola e la libertà di pensiero alle macchine”.
Tra gli ulteriori divieti presenti nel nuovo Regolamento figura lo stop a tutti i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico), i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati), i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione. Non ultimo, il veto all’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).