Credito:Pixabay/CC0 di dominio pubblico
I social media rappresentano un importante canale di diffusione di fake news e disinformazione. Questa situazione è stata aggravata dai recenti progressi nell'editing di foto e video e negli strumenti di intelligenza artificiale, che facilitano la manomissione di file audiovisivi, ad esempio i cosiddetti deepfake, che combinano e sovrappongono immagini, clip audio e video per creare montaggi che sembrano filmati reali.
I ricercatori dei gruppi K-riptography and Information Security for Open Networks (KISON) e Communication Networks &Social Change (CNSC) dell'Internet Interdisciplinary Institute (IN3) dell'Universitat Oberta de Catalunya (UOC) hanno lanciato un nuovo progetto per sviluppare tecnologia innovativa che, utilizzando tecniche di intelligenza artificiale e di occultamento dei dati, dovrebbe aiutare gli utenti a differenziare automaticamente tra contenuti multimediali originali e adulterati, contribuendo così a ridurre al minimo la ripubblicazione di notizie false. DISSIMILAR è un'iniziativa internazionale guidata dall'UOC che include ricercatori dell'Università della Tecnologia di Varsavia (Polonia) e dell'Università di Okayama (Giappone).
"Il progetto ha due obiettivi:in primo luogo, fornire ai creatori di contenuti strumenti per filigranare le loro creazioni, rendendo così facilmente rilevabile qualsiasi modifica; e in secondo luogo, offrire agli utenti dei social media strumenti basati sull'elaborazione del segnale di ultima generazione e metodi di apprendimento automatico per rilevare i falsi contenuti digitali", ha spiegato il professor David Megías, ricercatore capo KISON e direttore dell'IN3. Inoltre, DISSIMILAR mira a includere "la dimensione culturale e il punto di vista dell'utente finale durante l'intero progetto", dalla progettazione degli strumenti allo studio dell'usabilità nelle diverse fasi.
Il pericolo dei pregiudizi
Attualmente, ci sono fondamentalmente due tipi di strumenti per rilevare le notizie false. In primo luogo, ci sono quelli automatici basati sull'apprendimento automatico, di cui (attualmente) esistono solo pochi prototipi. E, in secondo luogo, ci sono le piattaforme di rilevamento di fake news caratterizzate dal coinvolgimento umano, come nel caso di Facebook e Twitter, che richiedono la partecipazione di persone per accertare se un contenuto specifico è genuino o falso. Secondo David Megías, questa soluzione centralizzata potrebbe essere influenzata da "diversi pregiudizi" e incoraggiare la censura. "Riteniamo che una valutazione obiettiva basata su strumenti tecnologici potrebbe essere un'opzione migliore, a condizione che gli utenti abbiano l'ultima parola nel decidere, sulla base di una valutazione preliminare, se possono fidarsi o meno di determinati contenuti", ha spiegato.
Per Megías, non esiste un "singolo proiettile d'argento" in grado di rilevare le notizie false:piuttosto, il rilevamento deve essere effettuato con una combinazione di strumenti diversi. "Ecco perché abbiamo scelto di esplorare l'occultamento delle informazioni (filigrane), le tecniche di analisi forense dei contenuti digitali (in gran parte basate sull'elaborazione del segnale) e, ovviamente, l'apprendimento automatico", ha osservato.
Verifica automatica dei file multimediali
La filigrana digitale comprende una serie di tecniche nel campo dell'occultamento dei dati che incorporano informazioni impercettibili nel file originale per poter verificare "facilmente e automaticamente" un file multimediale. "Può essere utilizzato per indicare la legittimità di un contenuto, ad esempio confermando che un video o una foto è stato distribuito da un'agenzia di stampa ufficiale, e può anche essere utilizzato come segno di autenticazione, che verrebbe cancellato in caso di modifica di contenuto o per risalire all'origine dei dati. In altre parole, può dire se la fonte delle informazioni (ad esempio un account Twitter) sta diffondendo contenuti falsi", ha spiegato Megías.
Tecniche di analisi forense dei contenuti digitali
Il progetto combinerà lo sviluppo di filigrane con l'applicazione di tecniche di analisi forense dei contenuti digitali. L'obiettivo è sfruttare la tecnologia di elaborazione del segnale per rilevare le distorsioni intrinseche prodotte dai dispositivi e dai programmi utilizzati durante la creazione o la modifica di qualsiasi file audiovisivo. Questi processi danno origine a una serie di alterazioni, come il rumore del sensore o la distorsione ottica, che potrebbero essere rilevate mediante modelli di apprendimento automatico. "L'idea è che la combinazione di tutti questi strumenti migliori i risultati rispetto all'uso di soluzioni singole", ha affermato Megías.
Studi con utenti in Catalogna, Polonia e Giappone
Una delle caratteristiche chiave di DISSIMILAR è il suo approccio "olistico" e la sua raccolta di "percezioni e componenti culturali attorno alle notizie false". In quest'ottica verranno condotti diversi studi incentrati sull'utente, suddivisi in diverse fasi. "In primo luogo, vogliamo scoprire come gli utenti interagiscono con le notizie, cosa li interessa, quali media consumano, a seconda dei loro interessi, cosa usano come base per identificare determinati contenuti come notizie false e cosa sono disposti a fare per verificarne la veridicità. Se riusciamo a identificare queste cose, sarà più facile per gli strumenti tecnologici che progettiamo aiutare a prevenire la propagazione di notizie false", ha spiegato Megías.
Queste percezioni saranno calibrate in luoghi e contesti culturali diversi, in studi di gruppi di utenti in Catalogna, Polonia e Giappone, in modo da incorporare le loro idiosincrasie durante la progettazione delle soluzioni. «Questo è importante perché, ad esempio, ogni Paese ha governi e/o autorità pubbliche con gradi più o meno credibili. Questo ha un impatto sul modo in cui le notizie vengono seguite e sul sostegno alle fake news:se non credo alla parola delle autorità, perché dovrei prestare attenzione alle notizie che provengono da queste fonti?Questo si è visto durante l'emergenza COVID-19:nei paesi in cui c'era meno fiducia nelle autorità pubbliche, c'era meno rispetto di suggerimenti e regole sulla gestione della pandemia e sulla vaccinazione", ha affermato Andrea Rosales, ricercatore del CNSC.
Un prodotto facile da usare e da capire
Nella seconda fase, gli utenti parteciperanno alla progettazione dello strumento per "assicurare che il prodotto sarà ben accolto, facile da usare e comprensibile", ha affermato Andrea Rosales. "Vorremmo che fossero coinvolti con noi durante l'intero processo fino alla produzione del prototipo finale, poiché questo ci aiuterà a fornire una risposta migliore alle loro esigenze e priorità e a fare ciò che altre soluzioni non sono state in grado di fare", ha aggiunto David Megías.
Questa accettazione da parte degli utenti potrebbe in futuro essere un fattore che porta le piattaforme di social network a includere le soluzioni sviluppate in questo progetto. "Se i nostri esperimenti dassero frutti, sarebbe fantastico se integrassero queste tecnologie. Per il momento, saremmo felici di avere un prototipo funzionante e una prova di concetto che potrebbe incoraggiare le piattaforme di social media a includere queste tecnologie in futuro, " ha concluso David Megías.
La ricerca precedente è stata pubblicata nel Numero Speciale sui Workshop ARES 2021 .