Continua l’operazione-pulizia di Facebook: il social network ha cancellato 2,2 miliardi di account falsi nel primo trimestre del 2019, un numero record se si pensa
che nel mondo gli utenti attivi su base mensile sono 2,38 miliardi. La pulizia dei primi mesi del 2019 quattro volte maggiore
di quella di un anno fa: basti pensare che nel primo trimestre del 2018 gli account rimossi erano stati solo 583 milioni.
I dati sono contenuti nel terzo “Community Standards Enforcement Report” presentato oggi, 23 maggio. Abbiamo rimosso un numero
superiore di account falsi nel primo trimestre del 2019 e negli ultimi tre mesi del 2018 rispetto ai trimestri precedenti,
mettono in evidenza dal quartier generale di Menlo Park e precisando che la maggior parte degli account sono stati rimossi
nei minuti immediatamente successivi alla loro creazione e, quindi, non sono inclusi nei dati sugli utenti attivi mensili
e quotidiani, parametro seguito da vicino dagli investitori.


Secondo Facebook, la mole di account fake viene generata da quelli che chiamano “bad actors”, ossia sistemi di hackeraggio che creano attacchi informatici capaci di generare una enorme quantit di account in una volta
sola.

Il report contiene anche dati su temi problematici, come la droga e le armi: il numero di messaggi rimossi che promuovevano la vendita di droga e armi da fuoco pari a 1,5 milioni solo nei primi
tre mesi di quest’anno. Altre metriche riguardano messaggi violenti o a sfondo sessuale: su 10mila contenuti, 11-14 contengono
materiale che viola la policy di Facebook sul nudo e sull’attivit sessuale degli adulti; su 10mila contenuti, 25 contengono
immagini o testi violenti.

Gli algoritmi di Facebook funzionano bene per alcune questioni, come le immagini o i contenuti violenti. Nel report Facebook rileva che quasi il 99% di questi messaggi vengono rimossi prima ancora che un utente li riesca a segnalare
all’azienda. Ma gli algoritmi e l’intelligenza artificiale non sono perfetti: infatti Facebook non ancora in grado di rilevare
contenuti violenti nei video dal vivo, ad esempio. I software non funzionato del tutto nemmeno per tematiche pi “sfumate”,
come i discorsi di odio, dove il linguaggio pu essere un fattore importante ma anche pi “sfuggente”.


Tuttavia, secondo Facebook, si vedono segnali di miglioramento. Negli ultimi sei mesi, il 65% dei messaggi di odio rimossi da Facebook stato individuato automaticamente grazie all’intelligenza
artificiale; un anno fa la percentuale era solo del 38 per cento.

© Riproduzione riservata



Sorgente – ilsole24ore.com