Credito:CC0 Dominio pubblico
Che si tratti di un video che mostra il volto di qualcun altro su un corpo diverso o dell'ex presidente Barack Obama che dice cose che in realtà non ha detto, I "deepfake" sono ormai una cosa.
Un altro uso popolare di questi video manipolati:porno falso, con tutti, dall'attrice Scarlett Johansson a chiunque abbia foto disponibili online.
Johansson, che ha inconsapevolmente recitato in un video pornografico presumibilmente trapelato che il Washington Post dice che è stato visto più di 1,5 milioni di volte su un importante sito porno, sente che la situazione è disperata.
"Niente può impedire a qualcuno di tagliare e incollare la mia immagine o quella di chiunque altro su un corpo diverso e farlo sembrare stranamente realistico quanto desiderato, " ha detto al Inviare in un racconto pubblicato pochi giorni fa. "Internet è un vasto wormhole di oscurità che si autodivora".
Ecco perché i ricercatori stanno lavorando duramente per trovare modi per rilevare tali falsificazioni, anche allo SRI International di Menlo Park.
La manipolazione dei video era roba da film, fatto da Disney, Pixar e altri, disse Bob Bolles, direttore del programma presso il programma di percezione del centro di intelligenza artificiale presso SRI. "Ora le app per lo scambio di volti stanno migliorando sempre di più."
Bolles ha recentemente mostrato come lui e il suo team stanno cercando di rilevare quando il video è stato manomesso.
Il team cerca incongruenze tra il video e la traccia audio, ad esempio, osservare se i movimenti delle labbra di una persona corrispondono ai suoni del video. Pensa ai video che non sono così ovvi come quelli vecchi, film di kung fu doppiati male.
Il team cerca anche di rilevare suoni che potrebbero non combaciare con lo sfondo, disse Aaron Lawson, vicedirettore del laboratorio linguistico dello SRI. Per esempio, il video potrebbe mostrare una scena del deserto, ma i riverberi possono indicare che il suono è stato registrato al chiuso.
"Abbiamo bisogno di una serie di test" per stare al passo con gli hacker che sono destinati a continuare a trovare nuovi modi per continuare a ingannare le persone, ha detto Bolles.
Il team SRI è solo uno dei tanti tra le organizzazioni, università e aziende che lavorano per cercare di rilevare e persino tracciare i deepfake nell'ambito di un programma DARPA chiamato MediFor, che è l'abbreviazione di media forensics. Matt Turek, direttore del programma per MediFor presso la Defense Advanced Research Projects Agency a Washington, DC, ha detto che 14 appaltatori principali stanno lavorando al progetto, che è stato avviato nell'estate 2016. Questi appaltatori hanno subappaltatori che lavorano su MediFor, pure.
"C'è stato un cambiamento significativo nell'ultimo anno circa, poiché le manipolazioni automatizzate sono diventate più convincenti, " ha affermato Turek. L'intelligenza artificiale e l'apprendimento automatico hanno contribuito a rendere più potenti gli strumenti per creare deepfake, e i ricercatori stanno usando l'intelligenza artificiale per cercare di contrattaccare.
"La sfida è creare algoritmi per stare al passo e stare al passo con la tecnologia che è là fuori, " ha detto Turek.
DARPA spera che i frutti del programma MediFor saranno distribuiti in lungo e in largo, raccolto da aziende tecnologiche come Facebook e YouTube, che gestiscono una grande frazione dei video generati dagli utenti del mondo.
Per esempio, un video pubblicato su YouTube da BuzzFeed lo scorso aprile, con il comico e attore Jordan Peele che ventriloquia Obama - con l'ex presidente che apparentemente chiama il presidente Donald Trump un'imprecazione - ha più di 5,3 milioni di visualizzazioni.
Turek ha spuntato altri possibili usi per i deepfake, come travisare i prodotti venduti online, o per falsificare le compagnie di assicurazione per incidenti stradali. Ha detto che ci sono state prove di ricercatori che usano immagini manipolate in modo che le loro scoperte scientifiche possano essere pubblicate. E prevede che alla fine, gli strumenti potrebbero diventare così buoni che una serie di deepfake sarà in grado di convincere le persone di eventi significativi che non sono accaduti, a indicare i teorici della cospirazione.
"I deepfake potrebbero alterare il modo in cui ci fidiamo dell'immagine e del video come società, " ha detto Turek.
©2019 The Mercury News (San Jose, California)
Distribuito da Tribune Content Agency, LLC.