Credito:CC0 Dominio Pubblico
I ricercatori dell'Università di Notre Dame stanno utilizzando l'intelligenza artificiale per sviluppare un sistema di allerta precoce che identificherà le immagini manipolate, video deepfake e disinformazione online. Il progetto è uno sforzo per combattere l'aumento di campagne coordinate sui social media per incitare alla violenza, seminare discordia e minacciare l'integrità delle elezioni democratiche.
Lo scalabile, Il sistema automatizzato utilizza il recupero di immagini basato sui contenuti e applica tecniche basate sulla visione artificiale per sradicare i meme politici da più social network.
"I meme sono facili da creare e ancora più facili da condividere, " ha detto Tim Weninger, professore associato presso il Dipartimento di Informatica e Ingegneria di Notre Dame. "Quando si tratta di meme politici, questi possono essere usati per aiutare a ottenere il voto, ma possono anche essere usati per diffondere informazioni inesatte e causare danni".
Weninger, insieme a Walter Scheirer, un assistente professore presso il Dipartimento di Informatica e Ingegneria a Notre Dame, e i membri del team di ricerca hanno raccolto più di due milioni di immagini e contenuti da varie fonti su Twitter e Instagram relativi alle elezioni generali del 2019 in Indonesia. I risultati di quelle elezioni, in cui l'inclinazione a sinistra, centrista in carica ha ottenuto la maggioranza dei voti sui conservatori, candidato populista, ha scatenato un'ondata di violente proteste che ha provocato la morte di otto persone e il ferimento di centinaia. Il loro studio ha trovato campagne sia spontanee che coordinate con l'intento di influenzare le elezioni e incitare alla violenza.
Quelle campagne consistevano in immagini manipolate che mostravano false affermazioni e false dichiarazioni di incidenti, loghi appartenenti a fonti di notizie legittime vengono utilizzati su notizie inventate e meme creati con l'intento di provocare cittadini e sostenitori di entrambe le parti.
Mentre le ramificazioni di tali campagne erano evidenti nel caso delle elezioni generali indonesiane, la minaccia alle elezioni democratiche in Occidente esiste già. Il team di ricerca di Notre Dame, composto da esperti forensi digitali e specialisti in studi sulla pace, ha affermato che stanno sviluppando il sistema per contrassegnare i contenuti manipolati per prevenire la violenza, e per avvertire in tempo reale giornalisti o osservatori elettorali di potenziali minacce.
Il sistema, che è in fase di ricerca e sviluppo, sarebbe scalabile per fornire agli utenti opzioni personalizzate per il monitoraggio dei contenuti. Mentre rimangono molte sfide, come determinare un mezzo ottimale per aumentare l'acquisizione e l'elaborazione dei dati per una rapida risposta, Scheirer ha affermato che il sistema è attualmente in fase di valutazione per la transizione all'uso operativo.
Lo sviluppo non è troppo indietro quando si tratta della possibilità di monitorare le elezioni generali del 2020 negli Stati Uniti, Egli ha detto, e il loro team sta già raccogliendo dati rilevanti.
"L'era della disinformazione è qui, " ha detto Scheirer. "Un deepfake che sostituisce gli attori in un film popolare potrebbe sembrare divertente e spensierato, ma immagina un video o un meme creato al solo scopo di mettere un leader mondiale contro un altro, dicendo parole che in realtà non hanno detto. Immagina quanto velocemente quel contenuto potrebbe essere condiviso e diffuso su tutte le piattaforme. Considera le conseguenze di quelle azioni".