skip to Main Content

I numeri del rapporto sulla trasparenza di Facebook

 
di Guido Scorza
 
Facebook ha pubblicato nei giorni scorsi un aggiornamento al suo transparency report relativo al primo quadrimestre del 2019 con riferimento ai contenuti rimossi perché in violazione di alcuni – nove per l’esattezza – dei propri community standard ovvero le regole contrattuali che disciplinano l’uso, da parte degli utenti, dei servizi offerti dal social network.
 
È un report estremamente facile da leggere, accessibile, effettivamente trasparente quanto ai dati in esso contenuti che conferma la volontà di Zuckerberg di cambiare verso, di fare ammenda degli errori del passato – o almeno di alcuni di essi – e di lavorare sodo per provare a recuperare terreno in termini di fiducia e affidabilità.
 
I numeri del report, tuttavia, danno al tempo stesso la misura di un fenomeno che non si può continuare a ignorare o meglio che i Governi non possono continuare a ignorare: Facebook – ma naturalmente il fenomeno non riguarda solo Facebook – sembra agire come uno Stato sovrano che detta le sue regole, le applica nell’ambito di autentici processi, ancorché a basso contraddittorio, e esegue le sue decisioni.
 
Sarebbe uno Stato autoritario, egemone, dittatoriale se non fosse che non è uno Stato ma il più grande parco privato mediatico della storia dell’umanità al cui proprietario è difficile contestare – specie mentre lo si continua a chiamare a rispondere di ogni genere di efferatezze posta in essere dai propri visitatori – di fare del suo meglio per garantire ordine e pulizia.
 
Ecco alcuni dei numeri, delle rimozioni di contenuti disposte da Facebook solo nell’ultimo quadrimestre che aiutano a capire la situazione.
 
Oltre 19 milioni di contenuti rimossi – quasi integralmente prima di qualsivoglia segnalazione degli utenti – perché in violazione degli standard di Facebook su immagini di nudo e attività sessuali ma, soprattutto, oltre due milioni di richieste di revisione delle decisioni assunte dal social network con oltre 600 mila contenuti poi rimessi al loro posto o in accoglimento di tali richieste o per revisione della decisione autonomamente assunta dal social network.
 
Quasi 3 milioni di contenuti rimossi perché in violazione degli standard di Facebook su bullismo, nella più parte dei casi (80%) a seguito di segnalazione degli utenti con quasi 500 mila richieste di revisione della decisione e poche migliaia di contenuti ripubblicati in accoglimento di tali richieste o autonomamente da Facebook.
 
Quasi 5 milioni di contenuti rimossi per violazione degli standard sulla pubblicazione di immagini di nudo e a sfondo sessuale di bambini, nella quasi totalità prima di ogni segnalazione da parte degli utenti con 21 mila appelli contro la decisione e oltre 6 mila contenuti rimessi al loro posto.
 
4 milioni di contenuti rimossi perché pubblicati in violazione degli standard in materia di hate speech, in oltre la metà dei casi senza alcuna segnalazione degli utenti, con oltre un milione di richieste di revisione della decisione e poco più di 20 mila contenuti poi ripubblicati in accoglimento di tali richieste o per decisione autonoma del socialnetwork.
 
Oltre 6 milioni di contenuti rimossi per violazioni degli standard sulla propaganda terroristica , pressoché integralmente in maniera automatica e preventiva con 40 mila richieste di revisione della decisione e 150 mila contenuti rimessi al loro posto in accoglimento di tali richieste e per revisione autonoma della precedente decisione da parte di Facebook.
 
E l’elenco potrebbe continuare per ciascuna delle nove categorie di violazione degli standard attualmente oggetto del report.
 
Certo mancano all’appello – perché il report non contiene i relativi dati – le ipotesi di rimozioni di contenuti in applicazione degli standard di Facebook per il contrasto alle fakenews e una serie di altri dati decisamente rilevanti ai fini della piena comprensione del fenomeno perché quantitativamente e qualitativamente rilevanti ma l’istantanea è nitida.
 
I contenuti portati ogni mese a processo nei tribunali privati di Facebook sono probabilmente più di quanti siano mai stati portati a processo davanti a Giudici e Autorità nel mondo intero e la “giustizia” del social network – come suggeriscono i dati relativi alle ripubblicazioni dopo originarie decisioni di rimozione – è, inesorabilmente, fallibile in maniera non diversa rispetto alla fallibilità della giustizia vera, quella dei Giudici e delle Autorità anche se, in questo secondo caso, non si dispongono di numeri altrettanto puntuali.
 
Davanti a una fotografia del genere si possono fare due cose: chiedere a Facebook – e, naturalmente, ai gestori delle altre piattaforme di pubblicazione di contenuti degli utenti – di andare avanti così e, anzi, di far sempre meglio e di più o prendere atto che ogni volta che un contenuto scompare da Facebook, spesso scompare contemporaneamente dal web perché non è altrove pubblicato e, dunque, produce un sacrificio irreparabile della libertà di espressione di un essere umano con la conseguenza che tale rischio andrebbe arginato chiedendo a Facebook di coinvolgere nel processo le pubbliche Autorità e soggetti terzi e indipendenti diversi da quelli appartenenti all’esercito di oltre 30 mila moderatori che, allo stato, arruola.
 
Decidere per l’una o per l’altra opzione significa decidere quanto vale per ciascuno di noi ogni frammento della nostra identità e dei nostri pensieri condiviso online nel parco mediatico più grande del mondo che, tuttavia, per dimensioni e capillarità è ormai, di fatto, divenuto una componente essenziale dell’infrastruttura globale di comunicazione.

Continuare a trattarlo alla stregua di un qualsiasi giardino privato, a mio parere, è sbagliato, miope e rischia di produrre conseguenze pericolose negli anni che verranno.

 
 
Fonte: L’Espresso
Crediti foto: Dado Ruvic/Reuters
Back To Top