Credito:CC0 Dominio Pubblico
Un video sui social media mostra un legislatore statunitense di alto rango che dichiara il suo sostegno a un enorme aumento delle tasse. Reagisci di conseguenza perché il video gli assomiglia e suona come lui, quindi sicuramente è stato lui.
Non necessariamente.
Il termine "notizie false" sta prendendo una svolta molto più letterale poiché la nuova tecnologia sta rendendo più facile manipolare i volti e l'audio nei video. I video, chiamati deepfake, possono quindi essere pubblicati su qualsiasi sito di social media senza alcuna indicazione che non siano reali.
Edoardo Delp, direttore del Laboratorio di elaborazione video e immagini della Purdue University, afferma che i deepfake sono un pericolo crescente con le prossime elezioni presidenziali che si avvicinano rapidamente.
"È possibile che le persone utilizzino video falsi per creare notizie false e inserirli in un'elezione politica, " disse Delp, il Charles William Harrison Distinguished Professor di Ingegneria Elettrica e Informatica. "Ci sono già state alcune prove di ciò in altre elezioni in tutto il mondo.
"Abbiamo le nostre elezioni in arrivo nel 2020 e sospetto che le persone le useranno. Le persone ci credono e questo sarà il problema".
I video rappresentano un pericolo per influenzare la corte dell'opinione pubblica attraverso i social media, poiché quasi il 70% degli adulti indica di utilizzare Facebook, solitamente giornalmente. YouTube vanta numeri ancora più alti, con oltre il 90% dei giovani di età compresa tra 18 e 24 anni che lo utilizzano.
Delp e il dottorando David Güera hanno lavorato per due anni sulla manomissione dei video nell'ambito di una ricerca più ampia sulla medicina legale dei media. Hanno lavorato con sofisticate tecniche di apprendimento automatico basate sull'intelligenza artificiale e sull'apprendimento automatico per creare un algoritmo in grado di rilevare i deepfake.
Alla fine dell'anno scorso, Delp e l'algoritmo del suo team hanno vinto un concorso della Defense Advanced Research Projects Agency (DARPA). DARPA è un'agenzia del Dipartimento della Difesa degli Stati Uniti.
"Analizzando il video, l'algoritmo può vedere se il volto è coerente con il resto delle informazioni nel video, " Disse Delp. "Se è incoerente, rileviamo queste sottili incongruenze. Può essere piccolo come pochi pixel, possono essere incongruenze coloranti, possono essere diversi tipi di distorsione."
"Il nostro sistema è guidato dai dati, in modo che possa cercare tutto - può esaminare anomalie come sbattere le palpebre, può cercare anomalie nell'illuminazione, "Guera ha detto, l'aggiunta del sistema continuerà a migliorare nel rilevamento dei deepfake in quanto forniscono più esempi da cui imparare.
La ricerca è stata presentata a novembre alla conferenza internazionale IEEE 2018 su Advanced Video and Signal Based Surveillance.
I deepfake possono anche essere usati per falsificare video e immagini pornografiche, usando i volti delle celebrità o anche dei bambini.
Delp ha affermato che i primi deepfake erano più facili da individuare. Le tecniche non riuscivano a ricreare bene il movimento degli occhi, con conseguente video di una persona che non ha battuto ciglio. Ma i progressi hanno reso la tecnologia migliore e più disponibile per le persone.
Le organizzazioni di notizie e i siti di social media sono preoccupati per il futuro dei deepfake. Delp prevede che in futuro entrambi avranno strumenti come il suo algoritmo per determinare quale filmato è reale e cosa è un deepfake.
"È una corsa agli armamenti, " ha detto. "La loro tecnologia sta migliorando sempre di più, ma mi piace pensare che riusciremo a tenere il passo".