Moderare Facebook, ovvero fare in modo che ogni singolo post degli oltre due miliardi di utenti possa essere verificato prima
della pubblicazione, è un’impresa titanica. Un po’ perché il successo della piattaforma di Mark Zuckerberg è fondato sulla pubblicazione immediata di ogni contenuto (non c’è una moderazione preventiva, come in certi forum privati),
un po’ perché per tenere sotto controllo una macchina del genere serve un dispiego enorme di uomini e tecnologie, con l’aiuto
di algoritmi basati su intelligenza artificiale.
Ciononostante, Facebook ci sta provando.


Travolto da scandali come Cambridge Analytica e (soprattutto) Russiagate, Zuckerberg è stato in qualche modo costretto a tentare la carta della moderazione contro il proliferare di fake news e odio.
E per farlo ha messo in campo una strategia a tratti un po’ marchiana. Secondo il New York Times, che è entrato in possesso
di alcune slide guida sulla moderazione dei contenuti, sono circa 7.500 le persone impiegate nel controllo dei contenuti in
tutto il mondo (presto potrebbero essere 10mila). Le linee guida, appuntate su slide di Power Point e su file Excel, vengono
elaborate settimanalmente da una squadra molto più ridotta di persone, direttamente negli uffici di Menlo Park. Un team che,
quotidianamente, tiene d’occhio ciò che succede nel mondo e verifica nuovi estremismi e nuovi trend da seguire.

Arbitro politico
La tesi del New York Times, che è entrato in possesso di questi documenti grazie a un dipendente di Facebook rimasto anonimo,
è che il social network con queste regole sia – di fatto – un vero e proprio arbitro del dibattito politico mondiale. Un arbitro
che, come in una partita di calcio, ha il potere di indirizzare l’andamento della gara. Il vero dubbio, adesso, è capire quanto
questa moderazione, per quanto necessaria, possa influenzare un risultato elettorale. Il rischio è molto alto, ed è alla base
di polemiche internazionali che hanno tirato in ballo Facebook sia relativamente alla vittoria di Donald Trump nella corsa alla Casa Bianca, che nella cavalcata trionfale del fronte pro Brexit nel Regno Unito. È provato che, considerate
le molteplici situazioni possibili, la soggettività del moderatore spesso ha il sopravvento. E così, questo tentativo di annullare
gli estremismi sulla piattaforma, ha fatto di Facebook un regolatore del dibattito politico stesso. In Grecia, i post del
partito di estrema destra Alba Dorata sono censurati. Ma lo stesso partito siede in parlamento, e questa sembra una grande
contraddizione.

Le lacune delle guide
Alla luce dei documenti analizzati dal quotidiano americano, le lacune nelle linee guida sono molte. Spesso per problemi di
traduzione delle stesse guide (tradotte con Google Translate), la moderazione di Facebook in alcuni Paesi ha prodotto disastri
più che benefici. In Indonesia, ad esempio, sono finiti nel mirino dei moderatori alcuni appelli alla raccolta di fondi per
le vittime di un vulcano, mentre in Birmania le falle nelle linee guida hanno permesso a un gruppo estremista, accusato di
apologia di genocidio, di postare senza intoppi per molto tempo. In India alcuni commenti critici verso la religione sono
stati cancellati. Ma i casi citati dal Times sono molti.


Tutto in 10 secondi
Ma perché la macchina di moderazione messa a punto da Facebook non funziona (o almeno non sempre)? Le ragioni sarebbero almeno
due. La prima è dovuta al fatto che i documenti guida, come detto, vengono spesso tradotti dalle agenzie private ingaggiate
da Facebook in giro per il mondo in modo artigianale, con l’utilizzo di traduttori online come Google Translate. La seconda
è invece relativa ai tempi di esecuzione. I tempi per moderare un contenuto su Facebook variano dagli 8 ai 10 secondi. In
un lasso di tempo così breve, un umano deve decidere se un post debba essere censurato oppure no. Così per migliaia di post
al giorno.

L’assenza di regole certe
Il vero nodo è la mancanza di regole certe. Una maggiore collaborazione con le istituzioni locali, potrebbe garantire a Facebook
performance migliori in fatto di moderazione. Anche perché gli argomenti e le criticità variano da Paese a Paese, e le guide
scritte su slide di Power Point in una stanza di Menlo Park non possono avere valenza universale. E questo sembra abbastanza
chiaro.

© Riproduzione riservata



Sorgente – ilsole24ore.com