Facebook può rimuovere contenuti, aggiungere avvisi se il contenuto può disturbare alcuni utenti senza violare gli standard, o avvisare la polizia in caso di "specifico, minaccia imminente e credibile alla vita umana"
Facebook ha tirato o schiaffeggiato avvisi su quasi 30 milioni di post contenenti immagini sessuali o violente, propaganda terroristica o incitamento all'odio nei primi tre mesi del 2018, ha detto martedì il gigante dei social media.
In un rapporto senza precedenti in risposta alle richieste di trasparenza dopo lo scandalo sulla privacy dei dati di Cambridge Analytica, Facebook ha dettagliato le sue azioni contro tali contenuti in linea con i suoi "standard comunitari".
Facebook ha affermato che la tecnologia migliorata che utilizza l'intelligenza artificiale l'ha aiutata ad agire su 3,4 milioni di post contenenti violenza grafica, quasi tre volte di più rispetto all'ultimo trimestre del 2017.
Nell'85,6% dei casi, Facebook ha rilevato le immagini prima di essere avvisato dagli utenti, ha detto il rapporto, emesso il giorno dopo che la società ha dichiarato che "circa 200" app sono state sospese sulla sua piattaforma nell'ambito di un'indagine sull'uso improprio dei dati degli utenti privati.
La cifra rappresenta tra lo 0,22 e lo 0,27 percento del contenuto totale visualizzato dagli oltre due miliardi di utenti di Facebook da gennaio a marzo.
"In altre parole, di ogni 10, 000 visualizzazioni di contenuti, una stima da 22 a 27 conteneva violenza grafica, "diceva il rapporto.
Le risposte alle violazioni delle regole includono la rimozione di contenuti, aggiungere avvisi ai contenuti che potrebbero disturbare alcuni utenti pur non violando gli standard di Facebook; e notificare le forze dell'ordine in caso di "specifico, minaccia imminente e credibile alla vita umana”.
Il miglioramento dell'IT ha anche aiutato Facebook ad agire contro 1,9 milioni di post contenenti propaganda terroristica, un aumento del 73 per cento. Quasi tutti sono stati affrontati prima che venisse lanciato qualsiasi allarme, ha detto la società.
Ha attribuito l'aumento all'uso potenziato della tecnologia di rilevamento delle foto.
Facebook si è scusato a marzo per aver rimosso temporaneamente una pubblicità con la famosa opera dell'artista francese Eugene Delacroix "Liberty Leading the People" perché raffigura una donna a seno nudo
L'incitamento all'odio è più difficile da controllare utilizzando metodi automatizzati, però, poiché l'incitamento all'odio razzista o omofobo è spesso citato nei post dai loro bersagli o attivisti.
Il sarcasmo ha bisogno del tocco umano
"Potrebbe essere necessario un essere umano per comprendere e interpretare accuratamente sfumature come... commenti autoreferenziali o sarcasmo, "diceva il rapporto, osservando che Facebook mira a "proteggere e rispettare sia l'espressione che la sicurezza personale".
Facebook ha preso provvedimenti contro 2,5 milioni di contenuti di incitamento all'odio durante il periodo, un aumento del 56 su ottobre-dicembre. Ma solo il 38% è stato rilevato grazie agli sforzi di Facebook, il resto segnalato dagli utenti.
I post che tengono più occupati i revisori di Facebook sono quelli che mostrano nudità per adulti o attività sessuale, a parte la pornografia infantile, che non è coperto dal rapporto.
Nel periodo sono stati gestiti circa 21 milioni di tali posti, un numero simile a ottobre-dicembre 2017.
Era meno dello 0,1 percento del contenuto visualizzato, che include testo, immagini, video, collegamenti, video in diretta o commenti sui post—ha detto Facebook, aggiungendo che aveva affrontato quasi il 96 percento dei casi prima di essere avvisato.
Facebook è stato preso di mira per aver mostrato troppo zelo su questo fronte, come la rimozione di immagini di opere d'arte tollerate secondo le proprie regole.
A marzo, Facebook si è scusato per aver rimosso temporaneamente un annuncio con la famosa opera dell'artista francese Eugene Delacroix "Liberty Leading the People" perché raffigura una donna a seno nudo.
© 2018 AFP