Presentato lo studio dell’Autorità delle Comunicazioni sulle strategie di disinformazione online, risultanze che aiutano a comprendere come le bufale digitali condizionano le scelte degli utenti, e non solo sul web
di Alessandro Alongi
Continua senza sosta il lavoro dell’Autorità per le Garanzie nelle Comunicazioni nel contrasto alla disinformazione online, percorso avviato lo scorso anno con la nascita del Tavolo per la garanzia del pluralismo e della correttezza dell’informazione sulle piattaforme digitali. Scopo dell’iniziativa dell’Autorità guidata da Angelo Marcello Cardani quello di favorire e promuovere l’autoregolamentazione delle piattaforme digitali e lo scambio di buone prassi per l’individuazione ed il contrasto delle fake news frutto di strategie mirate.
Il proliferare delle “bufale” in rete, ormai, è avvertito da tutte le istituzioni come una vera minaccia per il sistema democratico, specie in vista delle prossime lezioni europee a maggio 2019. Da qui la recente iniziativa della Commissione europea che ha chiesto una maggiore responsabilizzazione da parte delle big companies di Internet per arginare la diffusione di notizie semplicistiche, fuorvianti e, in ultima battuta, sostanzialmente false. Persino la Santa Sede è corsa ai ripari ragionando su possibili iniziative mirate ad osteggiare i numerosi siti che divulgano notizie ingannevoli sull’attività del Papa.
Tra i numerosi approfondimenti condotti dal Tavolo AGCOM, anche uno specifico rapporto tecnico sulle strategie di disinformazione online e la filiera dei contenuti fake, presentato la settimana scorsa a Roma.
Il Rapporto muove dalla presa d’atto del radicale mutamento delle dinamiche di produzione e consumo dell’informazione, oggi perlopiù basate su una miriade di contenuti disponibili online, spesso autoprodotti dagli utenti e non più (soltanto) dalle tradizionali filiere giornalistiche. Dalla carta stampata al web il salto è triplo carpiato.
Sulla rete, infatti, si configura un processo di disaggregazione, autoproduzione e disintermediazione dell’offerta informativa tradizionale, con una successiva riaggregazione e re-intermediazione dei contenuti da parte delle c.d. “fonti algoritmiche”, principalmente motori di ricerca e social network. Grazie proprio agli algoritmi, le piattaforme sono in grado di filtrare le notizie disponibili e presentarle agli utenti secondo un ordine prestabilito, spesso personalizzato, assumendo così un ruolo decisivo nel determinare le modalità di fruizione dell’informazione da parte degli internauti, orientando significativamente il successo o meno in termini di audience di una notizia rispetto ad un’altra. È il web che decide cosa dobbiamo leggere, ponendo in evidenza alcune informazioni a scapito di altre, e non sempre veritiere. Molto spesso questa preferenza è dettata da motivi commerciali, ma non solo.
L’informazione che corre su Internet, infatti, continua ad essere finanziata in modo prevalente attraverso la pubblicità online, con una pletora di inserzionisti che, alla continua ricerca di visibilità, cercano di legarsi a piattaforme capaci di attirare, in virtù proprio del contenuto messo in rete, i lettori. Da ciò si comprende come la disinformazione può rappresentare un volano pubblicitario per molte aziende che, anziché spingere sul freno in nome della qualità, potrebbero pigiare l’acceleratore e incentivare la diffusione di qualsiasi genere di news, anche fasulla, purché letta dall’utente insieme alla reclame che l’accompagna. Ma se da un lato si evince una chiara strategia commerciale sottesa alla diffusione di bufale, dall’altra lo studio mette in evidenza una disegno ben preciso per pilotare il consenso politico e ideologico, tratteggiando uno scenario preoccupante: dietro la disinformazione online c’è una vero e proprio disegno, diretto da organizzazioni stabili accomunate da interessi specifici, mosso da precisi obiettivi di natura economica e/o politico-ideologica, e con dotazioni finanziarie, tecnologiche e organizzative non di poco conto. Tutto ciò pregiudica notevolmente un serio pericolo per il pluralismo e la correttezza dell’informazione.
Le armi contro questo modus operandi risultano però spuntate. Non c’è ancora un sistema di regole, anche se la cosa appare quanto mai opportuna visto il livello raggiunto. Le possibili vie da seguire per arginare il fenomeno, suggerite dal Rapporto, vanno dalla ricerca di soluzioni condivise tra operatori presenti sul mercato dell’informazione e le piattaforme online (magari coordinate e promosse dall’Autorità) alla rilevazione e monitoraggio dei fenomeni di disinformazione online. Non secondario lo sviluppo di tecniche e strumenti di fact-checking, (magari tecnologicamente avanzati), iniziative che dovrebbero andare a braccetto con l’educazione di consumatori e utenti.
Accanto a dette azioni, il Rapporto ravvisa comunque la necessità di un intervento normativo, non tanto sotto il profilo della regolazione del contenuto (cosa che si porrebbe in contrasto con la libertà di espressione), quanto piuttosto sotto il profilo delle tecniche di selezione algoritmiche, magari introducendo la possibilità di accesso diretto – da parte di un soggetto terzo e indipendente – ai dati profilati e rivelati dai comportamenti di utenti e inserzionisti, nonché delle dinamiche e delle tecniche di disseminazione, contagio, diffusione dei messaggi. In una parola, è necessario regolare l’intero futuro del web.