Dopo la tragedia accaduta a Palermo il 21 gennaio 2021, la morte di una bambina di dieci anni indotta – così sembrerebbe – all’autosoffocamento in una sfida sul social network Tik Tok, ci si interroga sul rapporto tra i bambini e il digitale.
Una veloce googlata mostra che drammi simili si sono già verificati: prima di Tik Tok due piattaforme diffuse tra i giovanissimi, ThisCrush e Ask, erano balzate agli onori della cronaca per casi di suicidi di ragazzini e ragazzine, apparentemente legati a fenomeni di bullismo anonimo; prima di Blackout Challenge si discuteva di altre folli sfide, come Blue Whale, Fire Challenge e Choking game, sempre diffuse attraverso social network.
Per inquadrare questi fenomeni è necessario avere ben presente la facilità, sempre maggiore, con la quale i genitori mettono nelle mani dei propri figli, fin dalla più tenera infanzia, dispositivi connessi ad internet. Stando alle prime notizie la bambina di Palermo avrebbe avuto diversi profili su Facebook e Tik-Tok: un fatto che non ridurrebbe certo le responsabilità di chi l’ha coinvolta nella sfida mortale, ma confermerebbe come manchi la percezione dei rischi connessi con l’uso dei social network.
L’intervento del Garante per la protezione dei dati personali italiano è stato immediato, agevolato dal fatto che sin dal dicembre 2020 è in corso un’indagine sul funzionamento di Tik Tok e sulla sua adeguatezza ai principi e alle regole del GDPR. Il Garante ha disposto per Tik Tok il blocco temporaneo degli utenti dei quali non sia stata accertata l’età e pochi giorni dopo ha avviato un’istruttoria nei confronti di Facebook e Instagram. Obiettivo: avere indicazioni precise sulle modalità di iscrizione ai social e sulle tecniche adottate per verificare l’età di chi richiede l’apertura di un account.
Il GDPR indica l’età minima degli utenti “ufficiali” del mondo digitale tra i 16 e i 13 anni, a seconda delle previsioni normative specifiche dei singoli paesi europei. Al di sotto di tale soglia devono essere i genitori a prestare il consenso per l’accesso ai servizi digitali e, in particolare, per la creazione di account. In questi termini l’articolo 8 GDPR secondo cui chi offre ai minori servizi della società dell’informazione deve verificarne l’età, per accertarsi che il richiedente possa legittimamente esprimere il consenso o, per i più piccoli, che il consenso sia espresso dai genitori.
Indubbiamente il trattamento dei dati consistente e conseguente all’apertura di un account su un social network attiene alla fornitura di un servizio della società dell’informazione. Un approfondimento sui sistemi di verifica dell’età è certamente opportuno, tuttavia è difficile dire quanto possa essere utile per prevenire situazioni e fenomeni come quelli descritti.
Primo. Stando alle ricostruzioni fin qui fornite, i genitori della piccola palermitana sapevano che la figlia “viveva” su Tik Tok e su YouTube, ma non ritenevano necessario controllare ciò che faceva perché si fidavano di lei. Ciò implica che la bambina utilizzava account registrati dai genitori o che essi hanno (o avrebbero se richiesti) dato il proprio consenso all’apertura di uno o più account a nome della bambina.
Secondo. Quanto accaduto alla piccola palermitana non è diretta conseguenza della sua iscrizione a Tik Tok, ma di ciò che attraverso Tik Tok altri utenti hanno veicolato. Il GDPR non tocca i Social Network, nella misura in cui, da un lato, non si applica ai contenuti prodotti e veicolati dagli utenti privati; dall’altro nulla aggiunge alle responsabilità e agli obblighi previsti dalle norme sui servizi di comunicazione elettronica in rete o relative alla riservatezza del contenuto delle comunicazioni. In altre parole, ciò che l’utente fa con il proprio account e ciò che scrive non può essere oggetto di controllo da parte della piattaforma.
Dubbi sembra nutrirli lo stesso Collegio, che subito dopo l’adozione del provvedimento di blocco ha puntualizzato come non si possa pensare di identificare gli utenti delle piattaforme né lasciare all’arbitrio di queste ultime le valutazioni circa i contenuti da rimuovere e ha sollecitato l’attivazione di una Task Force europea; dedicandosi infine a ricordare come i social network non siano ambiente adatto ai bambini e come sia importante il ruolo di sorveglianza dei genitori.
I social network, dal canto loro, sbandierano il fatto che per avere un account è necessario avere almeno 13 anni, in conformità a quanto previsto dal GDPR e dal COPPA, il Children’s Online Privacy Protection Act statunitense che si applica a tutti i siti e servizi che possono interessare i bambini. In altre parole, la presenza di bambini di età inferiore non è presa seriamente in considerazione e ciò nonostante ai bambini siano rivolti, invece, servizi di vario tipo, non ultimi tutti i servizi connessi con la didattica a distanza da mesi imposta dalla pandemia Covid-19.
La verifica dell’età si può fare in molti modi; il sistema più semplice, e più facilmente aggirabile, prevede il semplice inserimento di una data di nascita autocertificata. Sistemi più complessi prevedono controlli basati sulla conoscenza di informazioni non facilmente accessibili ai bambini; l’incrocio di più dati ivi compresi quelli provenienti da documenti ufficiali; il controllo dell’immagine in movimento. Il sistema più sicuro di verifica è naturalmente l’identificazione.
A questo punto occorre chiedersi ove sia il bilanciamento più corretto tra la protezione dai pericoli della rete e la riservatezza dei bambini in rete: siamo sicuri che ogni risorsa web sia pericolosa per i bambini? Oppure è necessario individuare le risorse che di per sé non sono adatte ai bambini? Tra queste ultime dobbiamo effettivamente annoverare i social network? In un’epoca in cui la distanza sociale è una misura di sicurezza contro la pandemia, è giusto pensare ad inibire i contatti sociali virtuali?
Due proposte che vanno nel senso di un controllo ampio sono allo studio in Italia. La prima riguarda la possibilità di dotare i bambini di un’identità digitale SPID (Sistema Pubblico d’Identità Digitale), con la quale accedere ai servizi offerti in rete: se reso obbligatorio l’accesso dei bambini con SPID comporterebbe un controllo significativo; La seconda proposta, lanciata dal senatore Cangini, prevede di vietare la vendita e il possesso di smartphone ai minori di 14 anni: un’opzione che sembra poco praticabile e poco efficace.
In Europa si sta invece pensando ad una regolamentazione ampia dei servizi digitali: nel dicembre 2020 la Commissione Europea ha proposto l’adozione di un regolamento per i servizi digitali (il Digital Services Act) che introducendo una responsabilità delle piattaforme nella rimozione dei contenuti illegali e per la tutela dei diritti degli utenti in rete, minori compresi.
In conclusione, la verifica certa dell’età degli utenti di un social network nulla potrebbe in casi come quello della bambina di Palermo, a meno di prevedere l’identificazione degli utenti (tutti) e il controllo dei contenuti, successivo o (addirittura) preventivo. L’implementazione del meccanismo di verifica dell’età degli utenti che si iscrivono alle piattaforme è dunque un punto di partenza per cercare di rendere la rete un posto più sicuro per i minori, poco efficace senza un ripensamento complessivo.