Credito:CC0 Dominio pubblico
Dopo le elezioni presidenziali americane del 2016, Facebook ha iniziato a mettere tag di avvertimento sui fact-checker di notizie giudicati falsi. Ma c'è un problema:etichettare alcune storie come false rende i lettori più disposti a credere ad altre storie e a condividerle con gli amici, anche se quelli aggiuntivi, anche le storie non etichettate si rivelano false.
Questa è la scoperta principale di un nuovo studio co-autore di un professore del MIT, sulla base di molteplici esperimenti con i consumatori di notizie. I ricercatori chiamano questa conseguenza involontaria, in cui l'etichettatura selettiva delle notizie false fa sembrare più legittime altre notizie, l'"effetto verità implicita" nel consumo di notizie.
"Mettere un avvertimento su alcuni contenuti ti farà pensare, in una certa misura, che tutti gli altri contenuti senza l'avviso potrebbero essere stati controllati e verificati, "dice David Rand, l'Erwin H. Schell Professor presso la MIT Sloan School of Management e coautore di un articolo appena pubblicato che descrive in dettaglio lo studio.
"Non c'è modo che i fact-checker possano tenere il passo con il flusso di disinformazione, quindi, anche se gli avvertimenti riducono davvero la fiducia nelle storie taggate, hai ancora un problema, a causa dell'effetto verità implicito, " aggiunge Rand.
Inoltre, Rand osserva, l'effetto verità implicito "è in realtà perfettamente razionale" da parte dei lettori, poiché c'è ambiguità sul fatto che le storie senza tag siano state verificate o semplicemente non ancora controllate. "Ciò rende questi avvertimenti potenzialmente problematici, " dice. "Perché la gente ragionevolmente farà questa deduzione".
Comunque, i risultati suggeriscono anche una soluzione:l'inserimento di tag "Verificati" sulle storie ritenute vere elimina il problema.
La carta, "L'effetto della verità implicita, " è appena apparso in forma online sulla rivista Scienze della gestione . Oltre a Rand, gli autori sono Gordon Pennycook, un assistente professore di psicologia presso l'Università di Regina; Adamo Orso, un postdoc nel Cushman Lab dell'Università di Harvard; e Evan T. Collins, un ricercatore universitario sul progetto della Yale University.
BREAKING:più etichette sono meglio
Per condurre lo studio, i ricercatori hanno condotto un paio di esperimenti online con un totale di 6, 739 residenti negli Stati Uniti, reclutato tramite la piattaforma Mechanical Turk di Amazon. Ai partecipanti è stata data una varietà di titoli di notizie vere e false in un formato in stile Facebook. Le false storie sono state scelte dal sito web Snopes.com e includevano titoli come "ULTIM'ORA:Hillary Clinton ha chiesto il divorzio nei tribunali di New York" e "Il senatore repubblicano svela il piano per inviare tutti gli insegnanti d'America attraverso un campo di addestramento dei marine".
I partecipanti hanno visto un uguale mix di storie vere e storie false, e gli è stato chiesto se avrebbero preso in considerazione la possibilità di condividere ogni storia sui social media. Alcuni partecipanti sono stati assegnati a un gruppo di controllo in cui non sono state etichettate storie; altri hanno visto una serie di storie in cui alcuni di quelli falsi mostravano un'etichetta "FALSO"; e alcuni partecipanti hanno visto una serie di storie con etichette di avvertimento su alcune storie false e etichette di verifica "VERE" per alcune storie vere.
Innanzitutto, timbrare avvertimenti su storie false rende meno probabile che le persone considerino la possibilità di condividerle. Ad esempio, senza l'uso di etichette, i partecipanti hanno considerato la condivisione del 29,8 percento delle storie false nel campione. Quella cifra è scesa al 16,1 percento delle storie false che avevano un'etichetta di avvertimento attaccata.
Però, i ricercatori hanno anche visto l'effetto verità implicito avere effetto. I lettori erano disposti a condividere il 36,2 percento delle restanti storie false che non avevano etichette di avvertimento, dal 29,8 per cento.
"Osserviamo fermamente questo effetto di verità implicita, dove se il contenuto falso non ha un avviso, le persone ci credono di più e dicono che sarebbero più propensi a condividerlo, "Note di Rand.
Ma quando le etichette di avvertimento su alcune storie false sono state integrate con etichette di verifica su alcune delle storie vere, i partecipanti erano meno propensi a considerare la condivisione di storie false, su tutta la linea. In quelle circostanze, hanno condiviso solo il 13,7% dei titoli etichettati come falsi, e solo il 26,9 per cento delle false storie non etichettate.
"Se, oltre a mettere avvisi su cose che i fact-checker trovano false, metti anche pannelli di verifica su cose che i fact-checker trovano vere, allora questo risolve il problema, perché non c'è più ambiguità, " dice Rand. "Se vedi una storia senza etichetta, sai che semplicemente non è stato controllato."
Implicazioni politiche
I risultati arrivano con un'ulteriore svolta che Rand sottolinea, vale a dire, che i partecipanti al sondaggio non sembravano rifiutare gli avvertimenti sulla base dell'ideologia. Era ancora probabile che cambiassero la loro percezione delle storie con etichette di avvertimento o di verifica, anche se le notizie screditate erano "concordanti" con le loro opinioni politiche dichiarate.
"Questi risultati non sono coerenti con l'idea che i nostri poteri di ragionamento siano dirottati dalla nostra faziosità, " dice Rand.
Rand osserva che, mentre la ricerca continua sull'argomento è importante, l'attuale studio suggerisce un modo semplice in cui le piattaforme di social media possono agire per migliorare ulteriormente i loro sistemi di etichettatura dei contenuti delle notizie online.
"Penso che questo abbia chiare implicazioni politiche quando le piattaforme pensano di allegare avvisi, " dice. "Dovrebbero stare molto attenti a controllare non solo l'effetto degli avvertimenti sul contenuto con il tag, ma controlla anche gli effetti su tutti gli altri contenuti."