Screenshot di uno dei video.
Dalla pandemia di COVID-19 alla guerra in Ucraina, la disinformazione è diffusa in tutto il mondo. Molti strumenti sono stati progettati per aiutare le persone a individuare la disinformazione. Il problema con la maggior parte di loro è quanto siano difficili da fornire su larga scala.
Ma potremmo aver trovato una soluzione. Nel nostro nuovo studio abbiamo progettato e testato cinque brevi video che "pre-bunking" gli spettatori, al fine di inocularli dalle tecniche ingannevoli e manipolative spesso utilizzate online per fuorviare le persone. Il nostro studio è il più grande nel suo genere e il primo a testare questo tipo di intervento su YouTube. I video sono stati mostrati a cinque milioni di persone, di cui un milione li ha guardati.
Abbiamo scoperto che questi video non solo aiutano le persone a individuare la disinformazione negli esperimenti controllati, ma anche nel mondo reale. Guardare uno dei nostri video tramite un annuncio di YouTube ha potenziato la capacità degli utenti di YouTube di riconoscere la disinformazione.
Al contrario del prebunking, il debunking (o il fact-checking) della disinformazione presenta diversi problemi. Spesso è difficile stabilire quale sia la verità. Inoltre, i fact check spesso non riescono a raggiungere le persone che hanno maggiori probabilità di credere alla disinformazione e convincere le persone ad accettare i fact check può essere difficile, soprattutto se le persone hanno una forte identità politica.
Gli studi dimostrano che la pubblicazione di fact-check online non annulla completamente gli effetti della disinformazione, un fenomeno noto come effetto di influenza continua. Finora, i ricercatori hanno lottato per trovare una soluzione che possa raggiungere rapidamente milioni di persone.
La grande idea
La teoria dell'inoculazione è l'idea che puoi creare resistenza psicologica contro i tentativi di manipolarti, proprio come un vaccino medico è una versione indebolita di un agente patogeno che spinge il tuo sistema immunitario a creare anticorpi. Gli interventi di prebunking si basano principalmente su questa teoria.
La maggior parte dei modelli si è concentrata sulla lotta contro singoli esempi di disinformazione, come i post sui cambiamenti climatici. Tuttavia, negli ultimi anni i ricercatori, inclusi noi stessi, hanno esplorato modi per vaccinare le persone contro le tecniche e i tropi che sono alla base di gran parte della disinformazione che vediamo online. Tali tecniche includono l'uso del linguaggio emotivo per innescare indignazione e paura, o il capro espiatorio di persone e gruppi per un problema su cui hanno poco o nessun controllo.
Giochi online come Cranky Uncle e Bad News sono stati tra i primi tentativi di provare questo metodo di prebunking. Ci sono diversi vantaggi in questo approccio. Non devi agire come arbitro della verità in quanto non devi verificare i fatti specifici che vedi online. Ti consente di eludere le discussioni emotive sulla credibilità delle fonti di notizie. E forse la cosa più importante, non è necessario sapere quale disinformazione diventerà virale in seguito.
Un approccio scalabile
Ma non tutti hanno il tempo o la motivazione per giocare, quindi abbiamo collaborato con Jigsaw (l'unità di ricerca di Google) su una soluzione per raggiungere più di queste persone. Il nostro team ha sviluppato cinque video di prebunking, ciascuno della durata inferiore a due minuti, che miravano a immunizzare gli spettatori contro una diversa tecnica di manipolazione o errore logico. Come parte del progetto, abbiamo lanciato un sito Web in cui le persone possono guardare e scaricare questi video.
Per prima cosa abbiamo testato il loro impatto in laboratorio. Abbiamo condotto sei esperimenti (con circa 6.400 partecipanti in totale) in cui le persone hanno guardato uno dei nostri video o un video di controllo non correlato sulla combustione del congelatore. Successivamente, entro 24 ore dalla visione del video, è stato chiesto loro di valutare una serie di esempi di contenuti di social media (non pubblicati) che facevano o non facevano uso di tecniche di disinformazione. Abbiamo scoperto che le persone che hanno visto i nostri video di prebunking erano significativamente meno soggette a manipolazioni rispetto ai partecipanti al controllo.
Ma i risultati degli studi di laboratorio non si traducono necessariamente nel mondo reale. Quindi abbiamo anche condotto uno studio sul campo su YouTube, il secondo sito web più visitato al mondo (di proprietà di Google), per testare l'efficacia degli interventi video lì.
Un esempio di post sui social media (che abbiamo utilizzato come uno degli stimoli nel nostro studio) che fa uso di una falsa dicotomia (o falso dilemma), una tecnica di manipolazione comunemente usata.
Per questo studio ci siamo concentrati sugli utenti YouTube statunitensi di età superiore ai 18 anni che avevano precedentemente guardato contenuti politici sulla piattaforma. Abbiamo condotto una campagna pubblicitaria con due dei nostri video, mostrandoli a circa 1 milione di utenti YouTube. Successivamente abbiamo utilizzato lo strumento di coinvolgimento BrandLift di YouTube per chiedere alle persone che hanno visto un video di prebunking di rispondere a una domanda a scelta multipla. La domanda ha valutato la loro capacità di identificare una tecnica di manipolazione in un titolo di notizie. Avevamo anche un gruppo di controllo, che ha risposto alla stessa domanda del sondaggio ma non ha visto il video di prebunking. Abbiamo riscontrato che il gruppo di prebunking era del 5-10% migliore rispetto al gruppo di controllo nell'identificare correttamente la disinformazione, dimostrando che questo approccio migliora la resilienza anche in un ambiente che distrae come YouTube.
I nostri video costerebbero meno di 4 pence per visualizzazione video (questo coprirebbe le spese pubblicitarie di YouTube). Come risultato di questo studio, nel settembre 2022 Google organizzerà una campagna pubblicitaria utilizzando video simili. Questa campagna sarà condotta in Polonia e nella Repubblica Ceca per contrastare la disinformazione sui rifugiati nel contesto della guerra Russia-Ucraina.
Quando si cerca di costruire la resilienza, è utile evitare di essere troppo diretti nel dire alle persone in cosa credere, perché ciò potrebbe innescare qualcosa chiamato reattanza psicologica. Reattanza significa che le persone sentono che la loro libertà di prendere decisioni è minacciata, portandole a scavare e rifiutare nuove informazioni. La teoria dell'inoculazione riguarda la capacità delle persone di prendere le proprie decisioni su cosa credere.
A volte, la diffusione di teorie del complotto e false informazioni online può essere schiacciante. Ma il nostro studio ha dimostrato che è possibile invertire la tendenza. Più le piattaforme dei social media collaborano con scienziati indipendenti per progettare, testare e implementare soluzioni scalabili e basate sull'evidenza, migliori sono le nostre possibilità di rendere la società immune dall'assalto della disinformazione. + Esplora ulteriormente
Questo articolo è stato ripubblicato da The Conversation con licenza Creative Commons. Leggi l'articolo originale.