Il testo che segue è un estratto del libro “Nasci, cresci e posta – I social network sono pieni di bambini: chi li protegge?” scritto dal giornalista e collaboratore di Wired Simone Cosimi e dallo psicoanalista e psicoterapeuta Alberto Rossetti, pubblicato da Città Nuova e in uscita in tutte le librerie e in formato digitale il 28 settembre. Tutti i diritti riservati a Città Nuova.
Non c’è ambito meno battuto del rapporto fra bambini, adolescenti e social network. Le questioni intorno alle piattaforme che intersecano la nostra vita, e che anzi ne costituiscono ormai una dimensione difficilmente interscambiabile e distinguibile, sono affrontate con metriche e valutazioni di ogni genere: economiche, giuridiche, di marketing. Sociali, ovviamente. Molto meno, invece, dal punto di vista della porzione più fragile dell’utenza globale, quella costituita appunto da giovani e giovanissimi che invece, per paradosso, ne sono i principali utilizzatori. E spesso i cosiddetti early adopter. Quelli che, da nativi digitali, ci sono nati e cresciuti dentro.
Ecco perché Facebook e gli altri social network sono nella sostanza territori popolati da bambini. Piccoli e piccolissimi per così dire “non accompagnati” e ai quali nessuno fa caso. O finge di non accorgersi. Non sappiamo infatti quanti siano, perché indagini e numeri relativi alle loro abitudini sono molto rari. Ad esempio uno degli ultimi studi, ormai datati, raccontava di 20 milioni di minori, fra cui 7,5 milioni di under 13, presenti sulla piattaforma di Mark Zuckerberg.
Ragazzini con meno di 13 anni – quella la soglia minima per iscriversi. Ma si tratta di un’indagine ormai superata dai fatti e dagli anni.Più di recente Mary Aiken, cyberpsicologa forense e professoressa aggiunta all’University College di Dublino e al Geary Institute for Public Policy, nonché consulente dello European Cyber Crime Centre dell’Europol, ne ha diffusi di più freschi. La professoressa, coinvolta anche in una quantità di atenei e istituzioni, dalla Middlesex University all’Ibm Network Science Research Centre, spiega infatti nel suo ultimo volume, The Cyber Effect, come, stando a un’indagine svolta in 22 Paesi europei fra il 2011 e il 2014, un quarto dei bambini fra i 9 e i 10 anni, e la metà di quelli fra gli 11 e i 12, usino Facebook. Cosa significa? Una sola cosa: che quattro under 13 su dieci sanno iscriversi in autonomia al sito di Menlo Park. E sanno mentire, inserendo un’età diversa da quella reale. Non è un caso che un’altra indagine, stavolta statunitense ma limitata a soli 442 bambini fra gli 8 e i 12 anni, indichi invece in un quarto del campione la percentuale di chi bara.
Facebook e gli altri social network sono territori popolati da bambini. Piccoli e piccolissimi “non accompagnati” e ai quali nessuno fa caso. O finge di non accorgersi
Questo è il primo elemento: abbiamo un meccanismo che, come vedremo, pur disponendo formalmente di soglie minime d’età per prendervi parte, non serba di fatto alcuna “sanzione” per punire eventuali violazioni, né alcuna tecnologia per valutare se un profilo appartenga in realtà a un ragazzino. Non esistono cioè strumenti in grado di evitare – è vero nel caso dei più piccoli così come di qualsiasi altro utente che, per le ragioni più diverse, intenda aprire un pro lo con informazioni differenti da quelle scritte sulla carta d’identità – questo gioco degli anni. Basta indicare un’età diversa e si può accedere al grande show dell’ipocrisia a colpi di like.
Con una certa inquietudine, d’altronde, Aiken li ha battezzati “gli invisibili”. Ci sono, ma non si vedono. E anche nelle poche statistiche diffuse non hanno modo di essere tracciati e individuati. Perché sicuramente – per la stessa conformazione del sistema – avranno un’età minima di 13 anni. Quelli appunto richiesti dalle policy, cioè dalle condizioni d’uso, di Facebook e di quasi tutti gli altri social network.
Eppure non sembrerebbe così complesso cercare di mettere a punto qualche sistema per implementare quel divieto. Per dargli cioè corpo e per esempio far passare il messaggio che se si prova a iscriversi dichiarando un’età superiore alla soglia minima consentita ma il sistema nutre dei dubbi, si rischia di vedersi sospeso l’account. Basti pensare alle novità legate all’intelligenza artificiale e, per esempio, agli algoritmi di riconoscimento facciale. Senza contare una serie di altri elementi tipicamente legati ai profili dei bambini: questi tendono ovviamente a collegarsi con i loro coetanei e a pubblicare foto e video in cui appaiono in tutta la loro tenerissima età. E ancora: i bambini seguono certe pagine, affrontano certi argomenti. Insomma, ci sarebbero gli estremi per lanciare almeno una procedura a campione che affronti il tema. Sottoponendo a una verifica i profili che, per avere innescato una serie di allarmi, rientrino nel target che si sta cercando. C’è da scommettere che in quei due miliardi di utenti di Facebook o negli oltre 300 milioni di Twitter, così come negli oltre 700 di Instagram, scoveremmo milioni di account sensibili.
A quel punto potrebbero scattare delle procedure tanto semplici da non capire davvero per quale ragione non siano ancora state sviluppate. Si potrebbe trattare della richiesta di un documento o di una certificazione dei genitori – questa, e lo vedremo, è la strada verso cui sta viaggiando il legislatore europeo – oppure di un collegamento fra gli account di questi ultimi, sempre che ne dispongano, con quelli dei figli.
Un approccio che dovrebbe essere esteso anche ad altri ambiti che toccano la sfera del rapporto fra bambini e social network. Quello per esempio del cyberbullismo. Su questo fronte, a essere onesti, le iniziative si sprecano. Già dal 2014 Facebook ha lanciato una piattaforma – tuttora disponibile – sviluppata in collaborazione con lo Yale Center for Emotional Intelligence. Si tratta di una risorsa per ragazzi, genitori e insegnanti in cerca di supporto e aiuto per risolvere problemi relativi a casi di bullismo o altri con conflitti simili. Sulla piattaforma sono disponibili programmi dettagliati, indicazioni su come approcciare i giovani che sui social – e offline, anzi sempre più spesso prima in classe e poi in rete – siano incappati in simili avvenimenti. Fra le collaborazioni figurano sigle importanti come Save the Children e Telefono Azzurro.
Mary Aiken ritiene però che si potrebbe e dovrebbe fare di più. Che le piattaforme dovrebbero cioè affrontare i pericoli di fronte ai quali bambini e adolescenti vanno incontro anche con la potenza di fuoco dei loro data center. Per esempio sviluppando algoritmi specifici in grado di identidicare, magari sul profilo di un utente, l’escalation di contenuti aggressivi, lo svilupparsi di un thread, cioè di una discussione, particolarmente violento, la pubblicazione di scatti e immagini di un certo tenore. Insomma, il passaggio che ancora manca è quello che va dalla sensibilizzazione verso l’azione, sensata ma chiara, della piattaforma.
Anche perché i ragazzi non sanno difendersi da soli. In una recente indagine condotta da Facebook insieme a Skuola. net e all’Osservatorio nazionale adolescenza, il 16% degli intervistati ha infatti dichiarato di avere un profilo pubblico. Un ragazzo su sei apre volutamente le porte del proprio account a chiunque, nonostante sia possibile proteggere i propri dati personali. Il 21% del campione analizzato non ha invece mai controllato chi può vedere i dati personali associati al proprio profilo e il 37% sostiene di non essere interessato a questi argomenti.
Una recente indagine del quotidiano britannico «The Guardian», battezzata Facebook Files, ha svelato le cosiddette linee guida fornite da Facebook all’esercito di moderatori (7.500 persone circa, stando ai dati di Menlo Park) per gestire casi di post e contenuti violenti relativi ai bambini. Per foto e video in cui gli abusi non siano di natura sessuale ma di altro genere (percosse, violenze anche molto forti) le regole oscure della piattaforma invitano i “controllori” a lasciare tutto online e, al massimo, a corredare le clip di un avviso sulla delicatezza del contenuto. E tutto con la convinzione che in questo modo i soggetti vittime di questi ignobili atti «possano essere identificati e aiutati». Strano modo di aiutare.
A testimonianza del fatto che i social network sono pieni di bambini c’è inoltre una controprova essenziale: la pagina a cui si può fare ricorso per segnalare il profilo che si crede possa appartenere a un utente che non abbia ancora compiuto 13 anni. Il problema è che il meccanismo è davvero poco noto.
Per creare un account su Facebook, bisogna avere almeno 13 anni (in alcune giurisdizioni, il limite di età può essere superiore) – si legge nella pagina dedicata – la creazione di un account con informazioni false costituisce una violazione delle nostre condizioni d’uso. Lo stesso vale per gli account registrati per conto di persone sotto i 13 anni.
Se tuo figlio, che non ha ancora raggiunto l’età richiesta, ha creato un account su Facebook, puoi mostrargli come eliminare il suo account.
Se desideri segnalare un account che appartiene a qualcuno di età inferiore ai 13 anni, compila questo modulo. Tieni presente che elimineremo gli account dei minori di 13 anni, segnalati mediante questo modulo, immediatamente.
Com’è evidente, si tratta di un meccanismo zoppo. Arriva tardi – posso accorgermi che mio figlio o mia sorella minore ha aperto un account anche dopo mesi se non anni, ammesso che abbia utilizzato il suo vero nome – e soprattutto arriva male, perché si presta a un uso strumentale. Ad esempio, stando ai termini in cui è formulato il tool, chiunque potrebbe segnalare un qualsiasi account, magari di un quattordicenne o quindicenne, al solo fine di avviarne l’immediata eliminazione. Il che, per converso, potrebbe trasformarsi – esattamente come il meccanismo delle segnalazioni dei post che si ritengono inadatti – in un metodo di cyberbullismo e molestia.
C’è evidentemente un peccato originale che, al momento e nonostante i numerosi casi di cronaca, nessuno sembra voler risolvere. Cioè la volontà di eliminare all’origine la presenza dei minori di 13 anni su Facebook. E se del caso, limitare fortemente anche il raggio d’azione degli altri utenti minorenni fino al raggiungimento della maggiore età. Se qualche meccanismo, come dimostrano i suggerimenti, ci sarebbe, al momento è, tuttavia, ancora su carta. Periodicamente il top management di Menlo Park torna sul punto: tre anni fa Simon Milner, all’epoca policy director del social per il Regno Unito, Medio Oriente e Africa, spiegò al «The Guardian» che la piattaforma «non ha una soluzione per sradicare il problema».
Basti un esempio che tocca il cosiddetto tema dell’hate speech e quindi uno dei fronti più caldi del social network, specie per quanto riguarda i giovani, cioè l’odio online.
Nel maggio del 2016 la Commissione europea ha stretto un patto con Facebook, Twitter, YouTube e Microsoft, con cui ha sottoscritto un codice di condotta contenente un elenco di impegni orientati alla lotta all’hate speech. Un tema che sfiora l’utenza generica, ovviamente, ma in misura particolare quella più giovane. Bene, stando a un richiamo della fine dello stesso anno, le piattaforme sono state riprese dalla commissaria europea alla Giustizia Vĕra Jourová per non aver fatto abbastanza. Secondo l’analisi condotta da Bruxelles solo il 40% delle compagnie rimuove entro 24 ore i contenuti odiosi diffusi in rete. Questo significa che, laddove denunciati, certi contenuti rimangono troppo a lungo a disposizione del pubblico sberleffo e dell’aggressività digitale.
Una situazione che evidentemente contrasta col ritornello di cui tutti i manager delle piattaforme sociali si riempiono la bocca ogni qualvolta vengono intervistati sul tema: costruire una safe zone per gli utenti, specialmente quelli più giovani. Siamo molto lontani dal fare dei social un posto sicuro dal momento che non sappiamo neanche quanti bambini ci sono, cosa fanno e con chi interagiscono.
https://www.wired.it/attualita/media/2017/09/25/bambini-adolescenti-sui-social-network-li-protegge/