Gli interventi anti-disinformazione sui social media funzionano come previsto? Dipende, secondo un nuovo studio condotto dai ricercatori William &Mary e pubblicato negli Atti della CHI Conference on Human Factors in Computing Systems (CHI '24).
Il loro studio ha intervistato oltre 1.700 partecipanti negli Stati Uniti, rivelando che le funzionalità anti-disinformazione hanno aumentato la consapevolezza degli utenti sulla disinformazione nei social media; ma non li ha resi più propensi a condividere informazioni sui social media, o più disposti a ricevere informazioni dalle piattaforme. Sia la fiducia che la sfiducia coesistevano nei partecipanti, emergendo come caratteristiche distinte e non semplicemente come estremità opposte di uno spettro.
"Le dinamiche di fiducia e sfiducia sono la spina dorsale della società", ha affermato Yixuan (Janice) Zhang, assistente professore presso il Dipartimento di Informatica William &Mary. Lo studio ha definito e misurato questi concetti, fornendo un sondaggio convalidato per un uso futuro.
Zhang è stato l'autore principale insieme a Yimeng (Yvonne) Wang, un Ph.D. di W&M. studente di informatica; il gruppo degli autori comprendeva anche ricercatori provenienti da università di tre paesi, che contribuivano tutti al campo multidisciplinare dell'interazione uomo-computer.
"L'HCI ha molto a che fare con l'informatica equa, perché abbiamo a che fare con soggetti umani", ha affermato Zhang. La sua esperienza nell'HCI è in linea con la posizione di William &Mary nell'evoluzione delle arti e delle scienze liberali, opportunamente espressa dalla scuola proposta in informatica, scienza dei dati e fisica.
Lo studio si è concentrato su Facebook, X (ex Twitter), YouTube e TikTok come fonti di notizie e informazioni comunemente utilizzate, prendendo espressamente di mira il periodo da gennaio 2017 a gennaio 2023 in coincidenza con l'aumento delle principali campagne di disinformazione.
Durante il periodo esaminato, tutte queste piattaforme avevano messo in atto strategie anti-disinformazione come l’etichettatura di informazioni false, la cura di contenuti credibili e il collegamento a fonti aggiuntive. Esempi di questi interventi sono stati mostrati ai partecipanti che avevano recentemente interagito con le piattaforme.
Successivamente, agli intervistati è stato chiesto di esprimere il loro livello di accordo con otto affermazioni, che misuravano quattro aspetti della fiducia e quattro aspetti della sfiducia.
Ad esempio, le affermazioni che utilizzano la dimensione fiduciaria della “competenza” hanno sondato la fiducia degli utenti nella capacità delle piattaforme di combattere la disinformazione; le dichiarazioni che utilizzano la dimensione di sfiducia della "malevolenza" hanno valutato la fiducia degli utenti nella presunta diffusione di disinformazione da parte delle piattaforme. Altri aspetti della fiducia includevano benevolenza, affidabilità e fiducia; la sfiducia comportava scetticismo, disonestà e paura.
Inoltre, lo studio ha analizzato in che modo specifici interventi anti-disinformazione fossero legati alla fiducia e alla sfiducia degli utenti nei confronti dei social media e in che modo la loro esperienza con tali funzionalità abbia influenzato i loro atteggiamenti e comportamenti.
Un’analisi dei risultati ha evidenziato un gruppo di intervistati con elevata fiducia e elevata sfiducia, indicando potenzialmente che gli utenti erano esigenti negli aspetti specifici delle piattaforme che approvavano. Inoltre, questo fenomeno ha suggerito una discrepanza tra la percezione dei partecipanti di una determinata piattaforma e le loro esperienze di interazione. Ciò significa che gli utenti, ad esempio, potrebbero fidarsi che altri utenti condividano informazioni affidabili pur essendo scettici sulla capacità della piattaforma di affrontare la disinformazione.
I ricercatori hanno anche osservato che le percezioni di fiducia e sfiducia variavano tra le piattaforme ed erano influenzate da fattori demografici. Questi risultati, hanno sostenuto, potrebbero essere utili ai politici e ai regolatori per adattare gli interventi alle culture e ai contesti specifici degli utenti.
In qualità di ricercatore HCI, Zhang crede nell'informatica centrata sull'uomo e nella collaborazione tra diverse discipline. Oltre a progettare e implementare tecnologie computazionali, durante il suo dottorato di ricerca. programma ha conosciuto le teorie dell'educazione e delle scienze sociali.
Anche gli interessi di Wang risiedono nell'interazione tra esseri umani e computer. Ora sta studiando l'uso della tecnologia per affrontare i problemi di salute mentale e creare piattaforme affidabili per consentire agli utenti di migliorare il proprio benessere mentale.
"Poiché ci concentriamo sugli esseri umani, vogliamo davvero sapere se il nostro lavoro può aiutarli", ha affermato.
Ulteriori informazioni: Yixuan Zhang et al, Profilare le dinamiche di fiducia e sfiducia nei social media:uno studio di indagine, Atti della conferenza CHI sui fattori umani nei sistemi informatici (2024). DOI:10.1145/3613904.3642927
Fornito da William &Mary