I video deepfake possono far sembrare che le persone stiano facendo o dicendo cose fittizie nel tentativo di diffondere disinformazione
Aziende tecnologiche e accademici si sono uniti per lanciare una "sfida deepfake" per migliorare gli strumenti per rilevare video e altri media manipolati dall'intelligenza artificiale.
L'iniziativa annunciata giovedì include $ 10 milioni da Facebook e mira a frenare quella che è vista come una grave minaccia all'integrità delle informazioni online.
Lo sforzo è supportato da Microsoft e dalla Partnership on AI sostenuta dal settore e include accademici del Massachusetts Institute of Technology, Università Cornell, Università di Oxford, Università della California-Berkeley, Università del Maryland e Università di Albany.
Rappresenta un ampio sforzo per combattere la diffusione di video o audio manipolati come parte di una campagna di disinformazione.
"L'obiettivo della sfida è produrre una tecnologia che tutti possano utilizzare per rilevare meglio quando l'intelligenza artificiale è stata utilizzata per alterare un video al fine di fuorviare lo spettatore, ", ha dichiarato il direttore tecnico di Facebook Mike Schroepfer.
Schroepfer ha detto che le tecniche di deepfake, che presentano video realistici generati dall'intelligenza artificiale di persone che fanno e dicono cose immaginarie, "hanno implicazioni significative per determinare la legittimità delle informazioni presentate online. Eppure l'industria non ha un grande set di dati o benchmark per rilevarle".
La sfida è il primo progetto di un comitato sull'intelligenza artificiale e l'integrità dei media creato dal partenariato sull'intelligenza artificiale, un gruppo la cui missione è promuovere usi benefici dell'intelligenza artificiale ed è sostenuto da Apple, Amazzonia, IBM e altre aziende tecnologiche e organizzazioni non governative.
Terah Lione, direttore esecutivo dell'Associazione, ha affermato che il nuovo progetto fa parte di uno sforzo per arginare i falsi generati dall'intelligenza artificiale, che "hanno significativi, implicazioni globali per la legittimità delle informazioni online, la qualità del discorso pubblico, la salvaguardia dei diritti umani e delle libertà civili, e la salute delle istituzioni democratiche".
Facebook ha detto che stava offrendo fondi per collaborazioni di ricerca e premi per la sfida, e parteciperebbe anche al concorso, ma non accettare nessuno dei premi in denaro.
Il professore di Oxford Philip Torr, uno degli accademici partecipanti, ha affermato che i nuovi strumenti sono "urgenti per rilevare questi tipi di media manipolati.
"Media manipolati pubblicati su Internet, creare false teorie del complotto e manipolare le persone per guadagno politico, sta diventando una questione di importanza mondiale, poiché è una minaccia fondamentale per la democrazia, ", ha detto Torr in una nota.
© 2019 AFP