• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Abbiamo creato robot ingannevoli per capire perché si diffondono notizie false, e ho trovato un punto debole

    Puoi aiutare a fermare la diffusione di "notizie false" online. Credito:Shutterstock/panuwat phimpha

    È necessaria solo una piccola quantità di notizie false per interrompere qualsiasi dibattito o discussione su un problema, secondo una ricerca pubblicata oggi in PLOS UNO .

    Ma c'è un modo per scoraggiare coloro che diffondono notizie false, e anche per cancellarlo del tutto.

    La ricerca è sperimentale, basato su modelli e simulazioni, ma almeno mostra che è possibile contrastare la diffusione della disinformazione.

    L'ascesa delle fake news

    La diffusione di informazioni maliziose e false ha afflitto le società umane per secoli.

    In questa era di connettività digitale globale istantanea, l'attuale incarnazione delle "fake news" è diventata una piaga e viene sfruttata per tornaconto personale o politico.

    Sociale, progettato per incoraggiare gli utenti a contribuire e condividere contenuti, è diventato il grande facilitatore della diffusione delle fake news.

    Dalle nazioni che si intromettono nella politica delle democrazie e dei partiti politici che cercano di manipolare l'opinione pubblica, a un'industria delle "fake news" incentrata sul profitto, tutti hanno sfruttato questa diffusione a scopo di lucro, seminando confusione e discordia nelle popolazioni vittime a cui prendono di mira.

    Il gioco di simulazione

    Abbiamo fatto degli esperimenti volti a comprendere i meccanismi più fondamentali che determinano il comportamento delle fake news nelle popolazioni.

    Eravamo particolarmente interessati a due domande:

    1. quanto impatto possono avere le notizie false sulla formazione del consenso in una popolazione
    2. l'impatto del costo della distribuzione di notizie false sulla sua capacità di infestare una popolazione.

    Nel mondo reale, i costi possono essere esterni, come multe, sanzioni, esclusioni, spese per la creazione e la distribuzione di falsi; oppure possono essere interni, come sentimenti di perdita o imbarazzo a causa di essere ridicolizzati o vergognosi.

    Lo strumento che abbiamo usato era una simulazione evolutiva, in cui interagiscono semplici robot software in una popolazione, giocando al famoso gioco del dilemma del prigioniero. Fondamentalmente, un prigioniero che tradisce un altro vince alla grande, mentre il tradito perde gravemente, mentre entrambi vincono modestamente se collaborano, e soffrono ugualmente se si tradiscono l'un l'altro.

    A differenza dei precedenti lavori in questo settore, abbiamo reso alcuni di questi robot software un po' subdoli, con l'aggiunta di codice che ha permesso loro di ingannarsi a vicenda. La vittima di un tale inganno viene fatta confondere sulle intenzioni del giocatore avversario, o convinto che il giocatore avversario sia un "bravo ragazzo" disinteressatamente cooperativo.

    Il nostro codice ha fatto uso del nostro lavoro nella modellazione teoretica dell'informazione degli inganni, consentendo di mappare gli inganni noti nei modelli della teoria dei giochi. Ogni ingannatore nella simulazione ha sostenuto un costo quando ha ingannato, che è stato poi sottratto dalla vincita che hanno guadagnato nel gioco del dilemma del prigioniero.

    Quante fake news per interrompere il consenso?

    Abbiamo scoperto che anche una percentuale molto piccola di giocatori ingannatori nella popolazione - nelle nostre simulazioni meno dell'1% - potrebbe interrompere catastroficamente i comportamenti cooperativi nella popolazione simulata.

    Nel caso estremo di inganni a costo zero, in cui i produttori di notizie false non sono ostacolati, i comportamenti cooperativi sono svaniti del tutto. Solo dove il costo degli inganni era maggiore di zero, la cooperazione è sopravvissuta. Dove i costi erano molto alti, la cooperazione in realtà prospera.

    Abbiamo anche scoperto che per tutte le simulazioni, la capacità di sopravvivere di ingannare i giocatori dipendeva fortemente dal costo degli inganni. Se il costo fosse abbastanza alto, gli ingannatori non potevano sopravvivere nella popolazione.

    Applicandolo alla diffusione di fake news, costi molto elevati porteranno alla sua estinzione.

    Dall'esperimento al mondo reale

    Cosa ci dicono questi risultati sperimentali sul mondo reale della distribuzione di fake news sui social e sui mass media?

    Il primo e probabilmente più importante risultato è che sono necessarie pochissime notizie false per creare caos in una popolazione, e prevenire la formazione di un consenso che è fondamentale per i dibattiti pubblici. Se le vittime sono confuse, o credere alle falsità, è immateriale. È la loro capacità di raggiungere il consenso che viene interrotta.

    La nostra modellazione si è concentrata su piccoli gruppi di influencer che dibattono attivamente sui problemi. Dove gli influencer non sono d'accordo, i seguaci a loro volta non possono allinearsi a un consenso. Questo è uno dei motivi per cui le fake news sono così distruttive per le società democratiche.

    Il secondo risultato di più ampio interesse è che associando un alto costo alla produzione, ma soprattutto la diffusione di fake news può rivelarsi lo strumento più efficace che abbiamo per contrastarne la diffusione. Vale la pena fare un grande investimento sociale per aumentare questi costi, perché gli effetti delle notizie false sono così dirompenti.

    Rompere la catena

    La ricerca sulla guerra dell'informazione oltre un decennio fa ha scoperto che la consegna per procura era un importante moltiplicatore nella distribuzione della propaganda tossica.

    Per esempio, i mass media che distribuivano immagini e filmati violenti prodotti da terroristi agivano come delegati per i terroristi che producevano la propaganda, che lo sapessero o no.

    Gli utenti dei social media che condividono notizie false agiscono anche come proxy per i produttori di notizie false. Tali utenti sono in genere considerati vittime di notizie false – cosa che di solito sono – ma ogni volta che condividono notizie false diventano partecipi dell'inganno del produttore di notizie false.

    Associare un costo alla distribuzione di fake news sui social media non è semplice. L'uscita informale dei manifesti abituali di notizie false è un'opzione, che si accorda con la psicologia evolutiva dell'individuazione degli imbroglioni.

    Le organizzazioni di social media come Facebook affermano che stanno cercando di essere più proattive nel rilevare notizie false e notizie false tramite la tecnologia di apprendimento automatico o verificatori di fatti di terze parti, e dice che ha avuto alcuni successi recenti.

    Ma entrambe queste idee si imbattono nel problema più spinoso di determinare esattamente cosa sia o non sia una fake news. I fatti sgradevoli sono troppo spesso etichettati come "notizie false".

    L'affidabilità e l'obiettività dei fact checker possono variare notevolmente:le verità di base sono spesso oscurate da pregiudizi, e limiti di comprensione.

    A quest'ora, contrariamente a quanto affermato da alcuni fornitori di social media, L'intelligenza artificiale non è all'altezza del compito di trovare ed eliminare le fake news, che rimette l'onere su di noi umani.

    Tutti possiamo aiutare semplicemente pensando un po' prima che ci piaccia, condividere o ritwittare qualsiasi informazione sui social media. Forse fai alcuni controlli di ricerca per vedere se le informazioni sono note per essere vere o false.

    Il controllo dei parassiti è una pratica consolidata negli ecosistemi biologici, ed è chiaramente in ritardo per l'ecosistema dell'informazione.

    Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com