Credito:CC0 Dominio Pubblico
I commenti di Zuckerberg hanno suscitato feroci critiche e sembravano minare l'ultimo sforzo di Facebook per sradicare l'incitamento all'odio, violenza e disinformazione sulla sua piattaforma.
In un'intervista con il sito Web tecnico Recode mercoledì, Zuckerberg ha affermato che mentre Facebook si dedicava a fermare la diffusione di notizie false, non filtrerebbe i post solo sulla base del fatto che sono effettivamente sbagliati, inclusi quelli dei negazionisti dell'Olocausto e del sito web della teoria della cospirazione Infowars.
"Sono ebreo, e c'è un gruppo di persone che negano che l'Olocausto sia accaduto, "ha detto nell'intervista.
"Lo trovo profondamente offensivo. Ma alla fine della giornata, Non credo che la nostra piattaforma dovrebbe eliminarlo perché penso che ci siano cose che persone diverse sbagliano. Non credo che stiano sbagliando intenzionalmente".
I critici si sono subito scagliati contro Zuckerberg per i commenti, dire questo tipo di commenti può incitare all'odio e alla violenza.
"La negazione dell'Olocausto è la quintessenza delle 'notizie false, '", ha affermato Abraham Cooper del Simon Wiesenthal Center, un gruppo per i diritti che prende il nome da un famoso cacciatore di nazisti.
"L'Olocausto nazista è l'atrocità più documentata della storia, consentire la pubblicazione su Facebook del canard della negazione dell'Olocausto, o qualsiasi altra piattaforma di social media non può essere giustificata in nome del "libero scambio di idee"."
Zeynep Tufekci, un professore dell'Università della Carolina del Nord che segue i social media ha dichiarato su Twitter:"È più difficile trovare un gruppo di persone più * intenzionali* a "negare" un'atrocità per aprire la strada a più violenza rispetto ai negazionisti dell'olocausto".
Zuckerberg in seguito ha inviato un'e-mail a Recode per chiarire i suoi commenti, affermando che se qualcosa si sta diffondendo e viene valutato come falso dai fact check del sito, "perderebbe la stragrande maggioranza della sua distribuzione" sui feed degli utenti e che "se un post superasse il limite nel sostenere la violenza o l'odio contro un particolare gruppo, verrebbe rimosso».
Distrazione dal nuovo sforzo
L'episodio è stato una distrazione sgradita per Facebook dopo aver tenuto un briefing con i media sulla nuova politica dell'azienda per rimuovere i post fasulli che potrebbero scatenare la violenza.
La nuova tattica diffusa attraverso il social network globale è stata testata in Sri Lanka, che è stato recentemente scosso dalla violenza interreligiosa per le false informazioni pubblicate sulla piattaforma.
Jennifer Grigie, un professore di social media alla Syracuse University, ha affermato che, nonostante gli sforzi intensificati di Facebook, ha bisogno di molte più persone per eliminare i post che possono essere dannosi su una piattaforma con circa due miliardi di utenti in tutto il mondo.
Zuckerberg "ha bisogno di capire la moderazione dei contenuti e non può farlo senza più persone. Questo ha implicazioni di vita o di morte", ha detto Grygiel ad AFP.
"Non credo che capisca che le decisioni che prende hanno implicazioni nel mondo reale per la democrazia".
Facebook è stato accusato di non aver frenato gli incitamenti alla violenza contro i musulmani Rohingya in Myanmar e il suo servizio di messaggistica WhatsApp è stato implicato in linciaggi e violenze di massa in India.
L'ultima controversia arriva con Facebook che cerca di riparare i danni causati dalla disinformazione diffusa sulla piattaforma durante la campagna elettorale degli Stati Uniti del 2016 e il dirottamento di dati privati da parte della società di consulenza Cambridge Analytica mentre lavorava alla campagna di Donald Trump.
Allo stesso tempo, Facebook è stato accusato da alcuni politici di Washington di parzialità nel filtrare le voci conservatrici.
Alcuni analisti hanno affermato che Facebook deve affrontare un compito difficile nel cercare di filtrare la disinformazione e gli appelli alla violenza e conformarsi alle normative sull'incitamento all'odio in vari paesi, pur rimanendo una piattaforma aperta che consente la libertà di parola.
"Facebook è fuori controllo ma nessuno ha una risposta completa, ", ha detto Tufekci in un tweet.
L'amico professore della Carolina del Nord Daniel Kreiss ha risposto dicendo "i problemi sono * davvero * impegnativi:un grosso problema è che FB non ha mai pensato a nessuna delle implicazioni della sua piattaforma, dati, politiche del linguaggio, o disinformazione prima del 2016, anche se molti di noi stavano sollevando preoccupazioni".
© 2018 AFP