Da solo, il giudizio umano può essere soggettivo e deviato verso pregiudizi personali.
Le informazioni che incontriamo online ogni giorno possono essere fuorvianti, incompleto o inventato.
Essere esposti a "notizie false" su piattaforme di social media come Facebook e Twitter può influenzare i nostri pensieri e le nostre decisioni. Abbiamo già visto la disinformazione interferire con le elezioni negli Stati Uniti.
Il fondatore di Facebook Mark Zuckerberg ha ripetutamente proposto l'intelligenza artificiale (AI) come soluzione al dilemma delle fake news.
Però, il problema probabilmente richiede alti livelli di coinvolgimento umano, poiché molti esperti concordano sul fatto che le tecnologie di intelligenza artificiale necessitano di ulteriori progressi.
Io e due colleghi abbiamo ricevuto finanziamenti da Facebook per svolgere in modo indipendente ricerche su un approccio AI "umano-in-the-loop" che potrebbe aiutare a colmare il divario.
Human-in-the-loop si riferisce al coinvolgimento degli esseri umani (utenti o moderatori) per supportare l'IA nello svolgimento del proprio lavoro. Per esempio, creando dati di addestramento o convalidando manualmente le decisioni prese dall'IA.
Il nostro approccio combina la capacità dell'IA di elaborare grandi quantità di dati con la capacità degli esseri umani di comprendere i contenuti digitali. Questa è una soluzione mirata alle fake news su Facebook, data la sua vasta scala e l'interpretazione soggettiva.
Il set di dati che stiamo compilando può essere utilizzato per addestrare l'IA. Ma vogliamo anche che tutti gli utenti dei social media siano più consapevoli dei propri pregiudizi, quando si tratta di ciò che chiamano fake news.
Gli umani hanno pregiudizi, ma anche conoscenza unica
Per sradicare le notizie false, chiedere ai dipendenti di Facebook di prendere decisioni editoriali controverse è problematico, come ha scoperto la nostra ricerca. Questo perché il modo in cui le persone percepiscono i contenuti dipende dal loro background culturale, idee politiche, pregiudizi, e stereotipi.
Facebook ha impiegato migliaia di persone per la moderazione dei contenuti. Questi moderatori trascorrono dalle otto alle dieci ore al giorno a guardare materiale esplicito e violento come la pornografia, terrorismo, e decapitazioni, per decidere quale contenuto è accettabile per gli utenti da vedere.
Considerali dei cyber bidelli che puliscono i nostri social media rimuovendo i contenuti inappropriati. Svolgono un ruolo fondamentale nel plasmare ciò con cui interagiamo.
Un approccio simile potrebbe essere adattato alle fake news, chiedendo ai moderatori di Facebook quali articoli dovrebbero essere rimossi e quali dovrebbero essere consentiti.
I sistemi di intelligenza artificiale potrebbero farlo automaticamente su larga scala imparando quali sono le notizie false da esempi annotati manualmente. Ma anche quando l'intelligenza artificiale è in grado di rilevare contenuti "proibiti", sono necessari moderatori umani per segnalare contenuti controversi o soggettivi.
Un famoso esempio è l'immagine di Napalm Girl.
La fotografia vincitrice del Premio Pulitzer mostra bambini e soldati in fuga dall'esplosione di una bomba al napalm durante la guerra del Vietnam. L'immagine è stata pubblicata su Facebook nel 2016 e rimossa perché mostrava una bambina di nove anni nuda, contravvenendo agli standard ufficiali della community di Facebook.
Seguì una significativa protesta della comunità, poiché l'immagine iconica aveva un evidente valore storico, e Facebook ha permesso alla foto di tornare sulla sua piattaforma.
Usando il meglio di cervelli e robot
Nell'ambito della verifica delle informazioni, il giudizio umano può essere soggettivo e distorto in base al background di una persona e ai pregiudizi impliciti.
Nella nostra ricerca miriamo a raccogliere più "etichette di verità" per la stessa notizia da poche migliaia di moderatori. Queste etichette indicano il livello di "falsità" di un articolo di notizie.
Piuttosto che raccogliere semplicemente le etichette più popolari, vogliamo anche registrare i precedenti dei moderatori e i loro giudizi specifici per tracciare e spiegare l'ambiguità e le controversie nelle risposte.
Compileremo i risultati per generare un set di dati di alta qualità, che può aiutarci a spiegare i casi con alti livelli di disaccordo tra i moderatori.
Attualmente, Il contenuto di Facebook viene trattato come binario:o è conforme agli standard oppure no.
Il set di dati che compiliamo può essere utilizzato per addestrare l'intelligenza artificiale a identificare meglio le notizie false insegnandogli quali notizie sono controverse e quali sono semplicemente false. I dati possono anche aiutare a valutare quanto sia efficace l'attuale IA nel rilevamento di notizie false.
Potere al popolo
Sebbene i benchmark per valutare i sistemi di intelligenza artificiale in grado di rilevare le notizie false siano significativi, vogliamo fare un passo in più.
Invece di chiedere solo all'intelligenza artificiale o agli esperti di prendere decisioni su quali notizie sono false, dovremmo insegnare agli utenti dei social media come identificare da soli tali elementi. Riteniamo possibile un approccio volto a promuovere l'alfabetizzazione credibilità delle informazioni.
Nella nostra ricerca in corso, stiamo raccogliendo una vasta gamma di risposte degli utenti per identificare contenuti di notizie credibili.
Anche se questo può aiutarci a costruire programmi di formazione sull'IA, ci permette anche di studiare lo sviluppo delle capacità di moderatore umano nel riconoscere contenuti credibili, mentre svolgono attività di identificazione di notizie false.
Così, la nostra ricerca può aiutare a progettare attività o giochi online volti a formare gli utenti dei social media a riconoscere informazioni affidabili.
Altre strade
Il problema delle notizie false viene affrontato in modi diversi sulle piattaforme online.
È abbastanza spesso rimosso attraverso un approccio dal basso verso l'alto, dove gli utenti segnalano contenuti inappropriati, che viene poi rivisto e rimosso dai dipendenti della piattaforma..
L'approccio adottato da Facebook è quello di retrocedere i contenuti inaffidabili piuttosto che rimuoverli.
In ogni caso, rimane la necessità per le persone di prendere decisioni sull'idoneità dei contenuti. Il lavoro degli utenti e dei moderatori è fondamentale, poiché gli esseri umani sono necessari per interpretare le linee guida e decidere il valore dei contenuti digitali, soprattutto se è controverso.
Così facendo, devono cercare di guardare oltre le differenze culturali, pregiudizi e confini.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.