Poche settimane fa, L'ente benefico francese Solidarité Sida ha fatto scalpore quando ha pubblicato un video falso ma altamente realistico di Donald Trump che proclama "l'AIDS è finito" come parte di una campagna di sensibilizzazione. Il video in questione è noto come deepfake, una tecnica che prevede l'utilizzo dell'apprendimento automatico per fabbricare immagini e video sempre più realistici, nonché file audio e di testo.
Questo utilizzo di un video deepfake da parte di un ente di beneficenza evidenzia la crescente prevalenza di questo fenomeno. Mentre la pornografia rappresenta attualmente la stragrande maggioranza dei video deepfake, la tecnica può essere utilizzata anche per frodare, diffamare, diffondere notizie false o rubare l'identità di qualcuno.
Minacce in evoluzione
Nel mese di settembre, L'International Risk Governance Center (IRGC) dell'EPFL ha riunito circa 30 esperti per un seminario interdisciplinare per discutere di questo fenomeno in rapida evoluzione e della sua crescente prevalenza. L'IRGC ha pubblicato oggi un rapporto contenente preziose informazioni sui rischi associati ai deepfake.
L'osservazione principale è che questi rischi potrebbero potenzialmente causare danni diffusi in molte aree della vita. "Qualsiasi organizzazione o attività commerciale che si basi su prove documentali è potenzialmente vulnerabile, "dice Aengus Collins, l'autore del rapporto e vicedirettore dell'IRGC. I deepfake possono causare molta incertezza e confusione. In un caso recente, i ladri hanno usato l'audio deepfake della voce di un amministratore delegato per rubare soldi a un'azienda. A livello di società, una proliferazione di contenuti fabbricati potrebbe minare la verità ed erodere la fiducia del pubblico, le pietre miliari del dibattito democratico.
Il rapporto fornisce un quadro per la classificazione dei rischi di deepfake. Evidenzia tre impatti chiave:danno reputazionale, frode ed estorsione, e la manipolazione dei processi decisionali, e rileva che questi impatti possono essere avvertiti individualmente, istituzionalmente o attraverso la società.
Con una gamma così ampia di potenziali danni causati dai deepfake, dove sono più necessarie le risposte di governance del rischio? Gli esperti raccomandano di concentrarsi sull'entità e sulla gravità del potenziale danno, così come la capacità del "bersaglio" di far fronte alle ricadute. Ad esempio, un'azienda dotata di risorse adeguate con processi consolidati sarà in grado di assorbire meglio l'impatto di un attacco deepfake rispetto a una vittima privata di molestie.
Soluzioni interdipendenti
Nella relazione, l'IRGC stabilisce 15 raccomandazioni che coprono una varietà di potenziali risposte ai deepfake che potrebbero mitigare i rischi che presentano. Richiede anche una ricerca più approfondita su tutta la linea.
Una delle principali categorie di raccomandazione è la tecnologia, inclusi strumenti in grado di verificare la provenienza dei contenuti digitali o rilevare i deepfake. All'EPFL, il Multimedia Signal Processing Group (MMSPG) e la startup Quantum Integrity stanno attualmente sviluppando una soluzione di rilevamento deepfake che potrebbe essere implementata nel 2020. "Per qualsiasi dato insieme di difese, ci saranno vulnerabilità che possono essere sfruttate, " Afferma Collins. "Ma mantenere e sviluppare risposte tecnologiche ai deepfake è fondamentale per scoraggiare la maggior parte degli abusi".
Il rapporto evidenzia inoltre la necessità di una maggiore attenzione allo status giuridico dei deepfake, al fine di chiarire come le leggi in settori quali la diffamazione, molestie e copyright si applicano ai contenuti sintetici.
Più generalmente, l'alfabetizzazione digitale ha un ruolo importante da svolgere. Ma Collins avverte che c'è un paradosso qui:"Uno degli obiettivi dell'alfabetizzazione digitale in questo settore è incoraggiare le persone a non prendere i contenuti digitali per il valore nominale. Ma ci deve anche essere un focus positivo su cose come la conferma e la valutazione di fonti. In caso contrario, incoraggiare le persone a diffidare di tutto ciò che vedono rischia di esacerbare i problemi legati all'erosione della verità e della fiducia".
Orizzonti più ampi
Mentre il rapporto dell'IRGC si concentra sulla governance del rischio deepfake, questa ricerca fa parte di un più ampio flusso di lavoro sui rischi associati alle tecnologie emergenti e convergenti, che continuerà nel 2020. "Stiamo attualmente decidendo quale sarà il nostro prossimo obiettivo, " dice Collins. "E non mancano i candidati. Viviamo in un'epoca in cui il rapporto tra tecnologia, il rischio e le politiche pubbliche sono più importanti che mai".