Credito:CC0 Dominio Pubblico
In mezzo alla pandemia globale di coronavirus, la disinformazione sulla situazione si è diffusa a velocità fulminea sui social media. Nelle parole di Kathleen Carley, un membro della facoltà del CyLab e un professore presso l'Istituto per la ricerca sul software della School of Computer Science, "Questo è pericoloso." Il suo gruppo di ricerca ha monitorato da vicino la situazione e ha condiviso regolarmente i risultati.
Hai studiato campagne di disinformazione su tutti i tipi di eventi, dalle elezioni ai disastri naturali. Cosa stai vedendo ora durante questa pandemia di coronavirus?
In uno studio preliminare, abbiamo esaminato i post di Twitter sul coronavirus, denominato SARS-CoV-2, e la malattia che provoca, COVID-19, tra il 29 gennaio e il 4 marzo – oltre 67 milioni di tweet da circa 12 milioni di utenti. Questo periodo è trascorso poco più di una settimana dall'annuncio dei primi casi da parte degli Stati Uniti.
Quello che abbiamo visto finora è che la disinformazione su questo rientra in almeno tre diverse categorie. Primo, ci sono molte storie che contengono informazioni inesatte su cure o misure preventive, come quelli che dicono che bere candeggina ti proteggerà, o che rivestire il tuo corpo di olio di sesamo aiuta. Secondo, ci sono una serie di storie sulla natura del virus, come l'affermazione che i bambini non possono contrarre il virus, il che non è vero. Infine, ci sono anche una serie di storie sull'armamento o sulla bioingegneria del virus.
Che ruolo hanno giocato i bot dei social media in questo, e da dove vengono questi bot?
È troppo presto per dire da dove vengono i robot, ma stiamo scoprendo che il 40% della discussione su coronavirus e COVID-19 proviene dai robot. Degli utenti stessi impegnati in conversazioni sul virus, stiamo scoprendo che circa il 22% di loro sono bot.
Un grosso problema è che questi bot sono molto influenti:la rete intorno a loro è configurata in modo tale da avere molti ascoltatori. Il 42% dei primi 50 mentori influenti sono bot, L'82% dei primi 50 re-tweeter influenti sono bot, e il 62 percento dei primi 1, 000 re-tweeter sono bot. Ciò significa che, simile al virus stesso, la disinformazione sul virus si sta diffondendo rapidamente – solo molto, più veloce.
Come si confronta la disinformazione che vedi ora con la disinformazione del passato, dire, elezioni o disastri naturali?
prima di tutto, c'è solo molta più disinformazione su questo argomento di quella che vedresti durante un'elezione. Anche le categorie in cui rientra sono diverse. Intorno a un'elezione, molta disinformazione riguarda il processo di voto stesso, dove registrarsi, dove votare, ecc. Oppure si tratta di candidati:disinformazione che porta alla diffamazione dei candidati o al rafforzamento della loro immagine.
Nella situazione attuale, la disinformazione è meno personalizzata. Una parte enorme di queste storie suggerisce cure false e prevenzione falsa. Rispetto a uno scenario di calamità naturale, stai vedendo cose simili su false misure di emergenza. Per esempio, una certa disinformazione è stata diffusa a un certo punto che New York City è stata chiusa sotto la legge marziale. Questo era e non è vero. È più simile a un disastro naturale che a un evento politico in questo senso, ma stai ancora vedendo molto di più durante questa pandemia. E a differenza della situazione durante le elezioni, molte società di social media stanno cercando di combattere la disinformazione sul coronavirus in questo momento.
Il tuo consiglio per gli utenti è diverso ora rispetto al passato?
è molto simile, ed è estremamente importante dato quanto sia pericolosa parte di questa disinformazione. Se vedi disinformazione, chiamalo, perché in parte è mortale. Se vedi satira o una battuta sul virus o sul COVID-19, non condividerlo; una persona che lo legge potrebbe non rendersi conto che è satira.
Il pericolo intorno a questa disinformazione è in qualche modo nuovo. Durante le elezioni, condividere la disinformazione rappresenta una minaccia per la democrazia. Questo è molto brutto. In questa situazione, se segui le linee guida in alcune di queste disinformazione, potresti davvero farti del male.
Su cosa ti stai concentrando per andare avanti?
Oltre a continuare a monitorare l'attività di disinformazione su Twitter, siamo anche interessati a esaminare le community di YouTube e Reddit:i tipi di disinformazione condivisi lì, e quanto viene amplificato dagli account bot. Speriamo di avere dei risultati su queste reti nelle prossime settimane.
La ricerca in corso di Carley viene condotta nel Centro per la democrazia informata e la sicurezza informatica sociale (IDeaS) e il Centro per l'analisi computazionale e i sistemi organizzativi (CASOS) alla Carnegie Mellon University.