In questo 6 agosto, 2015, foto d'archivio, un cartello delle elezioni su Facebook si trova nell'area dei media a Cleveland, prima del primo dibattito presidenziale repubblicano. Facebook e altre piattaforme social combattono da due anni contro la disinformazione online e l'incitamento all'odio. Con le elezioni di midterm negli Stati Uniti in arrivo martedì, 6 novembre 2018, ci sono segni che stanno facendo progressi, anche se sono ancora molto lontani dal vincere la guerra. (AP Photo/John Minchillo, File)
Facebook e altre piattaforme social combattono da due anni la disinformazione online e l'incitamento all'odio. Con le elezioni di midterm negli Stati Uniti a pochi giorni di distanza, ci sono segni che stanno facendo progressi, anche se sono ancora molto lontani dal vincere la guerra.
Questo perché lo sforzo rischia di imbattersi in venti contrari politici che Facebook, Twitter e Google trovano dannoso per il business. Alcuni addirittura sostengono che i social network sono facili da inondare di disinformazione in base alla progettazione, una conseguenza involontaria del loro desiderio di soddisfare gli inserzionisti classificando gli interessi dei loro utenti.
Presi in modo imbarazzante alla sprovvista dopo essere stati interpretati da agenti russi che si intromettevano nelle elezioni statunitensi del 2016, i giganti della tecnologia hanno buttato milioni di dollari, decine di migliaia di persone e ciò che dicono sono i loro migliori sforzi tecnici per combattere le notizie false, propaganda e odio che si sono moltiplicati sulle loro piattaforme digitali.
Facebook, in particolare, ha fatto un'importante inversione di tendenza dalla fine del 2016, quando l'amministratore delegato Mark Zuckerberg ha infamemente respinto l'idea che le notizie false sul suo servizio avrebbero potuto influenzare le elezioni come "piuttosto folle". Nel mese di luglio, ad esempio, la società ha annunciato che le ingenti spese per la sicurezza e la moderazione dei contenuti, insieme ad altri turni di lavoro, manterrebbe la crescita e la redditività. Gli investitori furono immediatamente presi dal panico e abbatterono di 119 miliardi di dollari il valore di mercato dell'azienda.
Questo 16 luglio La foto del file del 2013 mostra un'insegna nella sede di Facebook a Menlo Park, Calif. Facebook e altre piattaforme social stanno conducendo una lotta contro la disinformazione online e l'incitamento all'odio da due anni. Con le elezioni di midterm negli Stati Uniti in arrivo martedì, 6 novembre 2018, ci sono segni che stanno facendo progressi, anche se sono ancora molto lontani dal vincere la guerra. (Foto AP/Ben Margot, File)
Il social network ha iniziato a vedere qualche ricompensa per i suoi sforzi. Una collaborazione di ricerca tra la New York University e Stanford ha recentemente scoperto che le "interazioni" degli utenti con notizie false su Facebook, che è aumentato notevolmente nel 2016 durante la campagna presidenziale, è sceso in modo significativo tra la fine del 2016 e luglio 2018. Su Twitter, però, la condivisione di tali storie ha continuato a crescere negli ultimi due anni.
Una misura simile del Center for Social Media Responsibility dell'Università del Michigan, soprannominata "Iffy Quotient", che misura la prevalenza di materiale "iffy" sui social network, mostra anche che l'"iffiness" di Facebook è sceso da un massimo dell'8,1 percento a marzo. 2017 al 3,2 per cento lunedì. Anche l'affinità di Twitter è leggermente diminuita, dal 5,6% di novembre 2016, lunedì al 4,2 per cento.
Anche a questi livelli, le notizie false rimangono enormi e potrebbero diffondersi a un nuovo pubblico. Una squadra guidata da Philip Howard, il ricercatore capo dello sforzo di propaganda computazionale di Oxford, ha esaminato le storie condivise su Twitter durante gli ultimi 10 giorni di settembre 2018 e ha scoperto che ciò che chiamava "notizie spazzatura" rappresentava un quarto completo di tutti i collegamenti condivisi durante quel periodo, maggiore del numero di notizie professionali condivise durante quel periodo.
Il team ha definito le notizie spazzatura come fonti che hanno pubblicato informazioni ingannevoli o errate, spesso in modo ideologico o cospiratorio, pur non riuscendo a soddisfare criteri quali professionalità, pregiudizio, credibilità e stile.
Questo 26 ottobre La foto del file del 2016 mostra un'insegna di Twitter fuori dalla sede della società a San Francisco. Facebook e altre piattaforme social combattono da due anni contro la disinformazione online e l'incitamento all'odio. Con le elezioni di midterm negli Stati Uniti in arrivo martedì, 6 novembre 2018, ci sono segni che stanno facendo progressi, anche se sono ancora molto lontani dal vincere la guerra. (AP Photo/Jeff Chiu, File)
Mentre l'analisi di Oxford non ha prodotto dati simili per Facebook, i ricercatori hanno mappato il modo in cui le notizie spazzatura circolano sul social network e hanno scoperto che le teorie della cospirazione e altra disinformazione una volta confinate a un pubblico di "estrema destra" sono ora condivise più liberamente anche tra i conservatori tradizionali. (Anche gli utenti di sinistra hanno sviluppato un gusto per le notizie spazzatura, il team di Oxford ha trovato, ma rappresenta solo una piccola parte del materiale che condividono su Facebook.)
Tali studi offrono immagini imperfette di ciò che sta realmente accadendo sui social network, poiché i servizi in genere non offrono ai ricercatori un accesso illimitato ai propri dati. Twitter, ad esempio, contesta lo studio di Oxford, notando che ha utilizzato un feed pubblico di tweet che non riflette il filtro utilizzato da Twitter per rimuovere materiale dannoso o spam.
Reprimere la disinformazione, Certo, è tutt'altro che facile. Gli avversari trovano sempre nuovi modi per aggirare le restrizioni. Può anche essere difficile distinguere la disinformazione e la propaganda dalle notizie legittime, soprattutto quando leader mondiali come il presidente Donald Trump diffondono regolarmente falsità sui social media.
Anche la politica complica le cose, poiché le società di social media sono ansiose di evitare accuse di pregiudizio politico. Quando Facebook, YouTube di Google e, infine, Twitter ha bandito il cospirazionista Alex Jones per varie violazioni dei suoi termini di servizio, Jones e i suoi alleati hanno subito affermato che era stato censurato. Il presidente Trump è intervenuto poche settimane dopo con un'accusa parallela, affermando senza prove che Google e altre società stavano "sopprimendo le voci dei conservatori e nascondendo informazioni e notizie che sono buone".
Questo martedì, 19 luglio 2016, file photo shows the Google logo at the company's headquarters in Mountain View, Calif. Facebook, Twitter, Google, and other social platforms have been waging a fight against online misinformation and hate speech for two years. With the U.S. midterm elections coming soon on Tuesday, Nov. 6, 2018, there are signs that they're making some headway, although they're still a long way from winning the war. (Foto AP/Marcio Jose Sanchez, File)
Twitter, infatti, charges that researchers such as the Oxford team define "junk news" too broadly. Il gruppo, ad esempio, classes conservative sites such as Breitbart News and the Daily Caller as "junk" by its criteria. Twitter argues that banning "media outlets that reflect views within American society" would "severely hinder public debate."
Some critics charge that the very advertising-based business model that made Zuckerberg rich is also perfectly suited for propagandists. Services like Facebook and Twitter "sustain themselves by finding like-minded groups and selling information about their behavior, " Dipayan Ghosh, a former privacy policy expert at Facebook and Ben Scott, senior adviser at New America, wrote in a Time Magazine op-ed earlier this year. "Disinformation propagators sustain themselves by manipulating the behavior of like-minded groups."
"They don't self-regulate, " said Dora Kingsley Vertenten, a professor of public policy at the University of Southern California and CEO of research consulting firm Trenton West. "They just want to make a profit, and what they have done to date is not nearly enough."
Really fixing the misinformation problem might require big changes to how these services work. Users started spending less time on Facebook after it made changes to make its service more "meaningful" to users, involving less scrolling through posts and more interactions with friends, ha detto la società.
Twitter CEO Jack Dorsey has hinted that he is open to drastic changes , but he hasn't yet said what they might look like. And there haven't been any obvious shifts since he made that statement in August.
In this April 11, foto d'archivio 2018, Facebook CEO Mark Zuckerberg returns after a break to continue testifying at a House Energy and Commerce hearing on Capitol Hill in Washington, sull'uso dei dati di Facebook per prendere di mira gli elettori americani nelle elezioni del 2016 e sulla privacy dei dati. Facebook and other social platforms have been waging a fight against online misinformation and hate speech for two years. With the U.S. midterm elections coming soon on Tuesday, Nov. 6, there are signs that they're making some headway, although they're still a long way from winning the war. (AP Photo/Jacquelyn Martin, File)
© 2018 The Associated Press. Tutti i diritti riservati.