È possibile arginare la rapida proliferazione di informazioni false? Credito:Sarah Rieke
Quando si tratta di notizie false reali, il tipo di disinformazione che la Russia ha distribuito durante le elezioni del 2016, "diventare virale" non è solo una metafora.
Utilizzando gli strumenti per modellare la diffusione delle malattie infettive, I ricercatori sul rischio informatico della Stanford Engineering stanno analizzando la diffusione di notizie false come se si trattasse di un ceppo di Ebola. "Vogliamo trovare il modo più efficace per tagliare le catene di trasmissione, correggere le informazioni se possibile ed educare i target più vulnerabili, "dice Elisabeth Paté-Cornell, professore di scienze e ingegneria gestionale. Si è da tempo specializzata in analisi dei rischi e sicurezza informatica e sta supervisionando la ricerca in collaborazione con Travis I. Trammell, un dottorando a Stanford. Ecco alcuni degli insegnamenti chiave:
Come si replicano le fake news sui social media?
I ricercatori hanno adattato un modello per comprendere le malattie che possono infettare una persona più di una volta. Guarda quante persone sono "sensibili" alla malattia, o in questo caso, probabile che creda a una notizia falsa. Guarda anche quanti ne sono stati esposti, e quanti sono effettivamente "infetti" e credono alla storia; e quante persone possono diffondere una notizia falsa.
Proprio come un virus, i ricercatori affermano che nel tempo essere esposti a più ceppi di notizie false può logorare la resistenza di una persona e renderla sempre più suscettibile. Più volte una persona è esposta a una notizia falsa, soprattutto se proviene da una fonte influente, più è probabile che si convincano o si infettino.
Cosa lo fa diffondersi più velocemente?
La cosiddetta "legge del potere" dei social media, un modello ben documentato nei social network, sostiene che i messaggi si replicano più rapidamente se sono mirati a un numero relativamente piccolo di persone influenti con un ampio seguito.
I ricercatori stanno anche esaminando l'efficacia relativa dei troll rispetto ai robot. Trammell dice che i robot che sono programmi automatizzati che si mascherano da persone, tendono ad essere particolarmente utili per diffondere un numero enorme di messaggi altamente emotivi con scarso contenuto informativo. Pensa qui a un messaggio con l'immagine di Hillary Clinton dietro le sbarre e le parole "Lock Her Up!" Quel tipo di messaggio si diffonderà rapidamente all'interno delle camere di risonanza popolate da coloro che sono già d'accordo con il sentimento di base. I robot hanno un notevole potere di infiammare le persone che hanno già la stessa mentalità, anche se possono essere più facili da individuare e bloccare rispetto ai troll.
Al contrario, i troll sono in genere persone reali che diffondono storie e meme provocatori. I troll possono essere più bravi a persuadere le persone meno convinte e che desiderano maggiori informazioni.
Quali tipi di persone sono più suscettibili?
Paté-Cornell e Trammell affermano che ci sono prove considerevoli che gli anziani, i giovani ei meno istruiti sono particolarmente sensibili alle fake news. Ma nel senso più ampio sono i partigiani agli estremi politici, sia liberale che conservatore, che sono più inclini a credere a una storia falsa in parte a causa del pregiudizio di conferma - la tendenza in tutti noi a credere a storie che rafforzano le nostre convinzioni - e più forti queste convinzioni, più potentemente la persona sente l'attrazione del pregiudizio di conferma.
È possibile l'inoculazione?
Paté-Cornell e Trammell dicono che, proprio come il crimine ordinario, la disinformazione non scomparirà mai. Ma imparando come si diffonde attraverso i social media, i ricercatori dicono che è possibile contrattaccare. Le piattaforme di social media potrebbero diventare molto più veloci nell'individuare contenuti sospetti. Potrebbero quindi allegare avvisi, una forma di inoculazione, o metterne in quarantena di più.
La sfida, dicono, è che la protezione ha dei costi:costi finanziari oltre a una riduzione della convenienza e delle limitazioni alla libertà di espressione. Paté-Cornell afferma che i pericoli delle notizie false dovrebbero essere analizzati come un rischio di gestione strategica simile a come abbiamo tradizionalmente analizzato i rischi posti dagli attacchi informatici volti a disabilitare le infrastrutture critiche. "Si tratta di come possiamo gestire al meglio le nostre risorse al fine di ridurre al minimo il rischio, " dice. "Quanto sei disposto a spendere, e quale livello di rischio siamo disposti ad accettare?"
Cosa riserva il futuro?
Le fake news sono già un problema di sicurezza nazionale. Ma Paté-Cornell e Trammell prevedono che l'intelligenza artificiale metterà il turbo alle fake news negli anni a venire. L'intelligenza artificiale renderà molto più facile indirizzare le persone con notizie false o video profondamente falsi, video che sembrano reali ma sono stati fabbricati in tutto o in parte, che sono finemente adattati a ciò che uno spettatore suscettibile potrebbe accettare e forse diffondere. L'intelligenza artificiale potrebbe anche semplificare la creazione di eserciti di robot più influenti che sembrano condividere il background sociale di un bersaglio, città natale, interessi personali o convinzioni religiose. Tali tipi di iper-targeting renderebbero i messaggi molto più persuasivi. L'intelligenza artificiale mostra anche un grande potenziale per contrastare questo flagello identificando contenuti falsi in tutte le forme, ma solo il tempo dirà chi prevarrà in questa corsa agli armamenti new age.