• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Facebook:erano più bravi a controllare la nudità che incitamento all'odio

    In questo 16 maggio, 2012, foto d'archivio, il logo di Facebook viene visualizzato su un iPad a Philadelphia. Facebook crede che il suo sistema di polizia sia migliore per eliminare la violenza grafica, nudità gratuita e propaganda terroristica dal suo social network piuttosto che rimuovere il razzismo, sessista e altri commenti di odio. Martedì l'autovalutazione 15 maggio 2018, è arrivata tre settimane dopo che Facebook ha cercato di dare una spiegazione più chiara del tipo di post che non tollera. (Foto AP/Matt Rourke, File)

    Liberarsi del razzista, commenti sessisti e altri odiosi su Facebook è più impegnativo che eliminare altri tipi di post inaccettabili perché i programmi per computer continuano a inciampare nelle sfumature del linguaggio umano, la società ha rivelato martedì.

    Facebook ha anche rilasciato statistiche che hanno quantificato quanto siano diventati pervasivi gli account falsi sul suo servizio influente, nonostante una politica di vecchia data che richiede alle persone di creare account con le loro identità reali.

    Solo da ottobre a dicembre, Facebook ha disabilitato quasi 1,3 miliardi di account, e questo non conta nemmeno tutte le volte che l'azienda ha bloccato i profili fasulli prima che potessero essere configurati.

    Se l'azienda non avesse chiuso tutti quegli account falsi, il suo pubblico di utenti mensili sarebbe cresciuto oltre gli attuali 2,2 miliardi e probabilmente avrebbe creato più materiale potenzialmente offensivo da eliminare da Facebook.

    L'autovalutazione di Facebook ha mostrato che il suo sistema di screening è molto più bravo a eliminare la violenza grafica, nudità gratuita e propaganda terroristica. Gli strumenti automatizzati hanno rilevato dall'86 al 99,5% delle violazioni identificate da Facebook in queste categorie.

    Per incitamento all'odio, I revisori umani e gli algoritmi informatici di Facebook hanno identificato solo il 38% delle violazioni. Il resto è arrivato dopo che gli utenti di Facebook hanno segnalato il contenuto offensivo per la revisione.

    Tutto detto, Facebook è intervenuto su quasi 1,6 miliardi di contenuti durante i sei mesi terminati a marzo, una piccola frazione di tutta l'attività sul suo social network, secondo la società.

    Il rapporto ha segnato la prima analisi di Facebook su quanto materiale rimuove per aver violato le sue politiche. Non ha rivelato quanto tempo impiega Facebook per rimuovere materiale che viola i suoi standard. Il rapporto inoltre non copre quanti contenuti inappropriati Facebook ha perso.

    "Anche se rimuovono 100 milioni di post offensivi, ce ne saranno uno o due che avranno delle cose davvero brutte e quelli saranno quelli di cui tutti finiranno per parlare nei telegiornali della TV via cavo, " disse Timothy Carone, che insegna tecnologia all'Università di Notre Dame.

    Invece di cercare di determinare quanto materiale offensivo non ha catturato, Facebook ha fornito una stima sulla frequenza con cui ritiene che gli utenti abbiano visto i post che violavano i suoi standard, compresi i contenuti che il suo sistema di screening non ha rilevato. Ad esempio, la società ha stimato che per ogni 10, 000 volte che le persone hanno guardato i contenuti sul suo social network, Da 22 a 27 delle visualizzazioni potrebbero aver incluso post che includevano violenza grafica inammissibile.

    Il rapporto inoltre non affronta il modo in cui Facebook sta affrontando un altro problema fastidioso:la proliferazione di notizie false piantate da agenti russi e altri fabbricanti che cercano di influenzare le elezioni e l'opinione pubblica.

    Gli account falsi su Facebook hanno attirato più attenzione perché gli agenti russi li hanno usati per acquistare annunci pubblicitari per cercare di influenzare le elezioni del 2016 negli Stati Uniti.

    Anche se si è concentrato sulla chiusura di account fasulli, Facebook ha affermato che dal 3 al 4% dei suoi utenti mensili attivi sono falsi. Ciò significa che fino a marzo 88 milioni di falsi account Facebook stavano ancora scivolando attraverso le crepe nel sistema di polizia dell'azienda.

    Non sorprende che i programmi automatizzati di Facebook abbiano le maggiori difficoltà nel cercare di capire le differenze tra le opinioni ammesse e il linguaggio spregevole che oltrepassa il limite, disse Carone.

    "È come cercare di capire l'equivalente tra urlare 'Al fuoco!' in un teatro affollato quando non c'è nessuno e l'equivalente di dire qualcosa che è scomodo ma si qualifica come libertà di parola, " Egli ha detto.

    Facebook ha dichiarato di aver rimosso 2,5 milioni di contenuti ritenuti inaccettabili incitamenti all'odio durante i primi tre mesi di quest'anno, rispetto a 1,6 milioni del trimestre precedente. La società ha accreditato una migliore rilevazione, anche se ha detto che i programmi per computer hanno difficoltà a comprendere il contesto e il tono del linguaggio.

    Facebook ha abbattuto 3,4 milioni di atti di violenza grafica durante i primi tre mesi di quest'anno, quasi il triplo degli 1,2 milioni dei tre mesi precedenti. In questo caso, una migliore individuazione era solo una parte del motivo. Facebook ha affermato che gli utenti pubblicano in modo più aggressivo immagini di violenza in luoghi come la Siria devastata dalla guerra.

    La maggiore trasparenza arriva come il Menlo Park, California, La società cerca di fare ammenda per uno scandalo sulla privacy innescato da politiche allentate che hanno permesso a una società di data mining legata alla campagna 2016 del presidente Donald Trump di raccogliere informazioni personali su ben 87 milioni di utenti. Lo screening dei contenuti non ha nulla a che fare con la protezione della privacy, anche se, e mira a mantenere un'atmosfera familiare per utenti e inserzionisti.

    © 2018 The Associated Press. Tutti i diritti riservati.




    © Scienza https://it.scienceaq.com