• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Rilevamento di video deepfake in un batter d'occhio

    In realtà è molto difficile trovare foto di persone con gli occhi chiusi. Credito:Bulin/Shutterstock.com

    Una nuova forma di disinformazione è pronta a diffondersi attraverso le comunità online mentre le campagne elettorali di medio termine del 2018 si scaldano. Chiamati "deepfake" dopo lo pseudonimo dell'account online che ha reso popolare la tecnica - che potrebbe aver scelto il suo nome perché il processo utilizza un metodo tecnico chiamato "deep learning" - questi video falsi sembrano molto realistici.

    Finora, le persone hanno usato video deepfake nella pornografia e nella satira per far sembrare che persone famose stiano facendo cose che normalmente non farebbero. Ma è quasi certo che i deepfake appariranno durante la stagione della campagna, pretendendo di rappresentare candidati che dicono cose o vanno in posti in cui il vero candidato non farebbe.

    Poiché queste tecniche sono così nuove, le persone hanno difficoltà a distinguere tra i video reali e i video deepfake. Il mio lavoro, con il mio collega Ming-Ching Chang e il nostro dottorato di ricerca. studente Yuezun Li, ha trovato un modo per distinguere in modo affidabile video reali da video deepfake. Non è una soluzione permanente, perché la tecnologia migliorerà. Ma è un inizio, e offre la speranza che i computer saranno in grado di aiutare le persone a dire la verità dalla finzione.

    Cos'è un deepfake, ' comunque?

    Fare un video deepfake è molto simile alla traduzione tra le lingue. Servizi come Google Translate utilizzano l'apprendimento automatico, ovvero l'analisi computerizzata di decine di migliaia di testi in più lingue, per rilevare i modelli di utilizzo delle parole che utilizzano per creare la traduzione.

    È Barack Obama, o no?

    Gli algoritmi Deepfake funzionano allo stesso modo:utilizzano un tipo di sistema di apprendimento automatico chiamato rete neurale profonda per esaminare i movimenti facciali di una persona. Quindi sintetizzano immagini del viso di un'altra persona che compie movimenti analoghi. In questo modo si crea in modo efficace un video della persona di destinazione che sembra fare o dire le cose che ha fatto la persona di origine.

    Prima che possano funzionare correttamente, le reti neurali profonde hanno bisogno di molte informazioni sulla sorgente, come le foto delle persone che sono la fonte o l'obiettivo del furto d'identità. Più immagini vengono utilizzate per addestrare un algoritmo deepfake, più realistica sarà la rappresentazione digitale.

    Rilevamento del lampeggiamento

    Ci sono ancora dei difetti in questo nuovo tipo di algoritmo. Uno di questi ha a che fare con il modo in cui i volti simulati lampeggiano o non lampeggiano. Gli esseri umani adulti sani lampeggiano da qualche parte tra ogni 2 e 10 secondi, e un singolo battito di ciglia dura tra un decimo e quattro decimi di secondo. Questo è ciò che sarebbe normale vedere in un video di una persona che parla. Ma non è quello che succede in molti video deepfake.

    Come vengono realizzati i video deepfake.

    Quando un algoritmo deepfake viene addestrato sulle immagini del volto di una persona, dipende dalle foto disponibili su Internet che possono essere utilizzate come dati di allenamento. Anche per le persone che vengono fotografate spesso, poche immagini sono disponibili online che mostrano i loro occhi chiusi. Non solo foto del genere sono rare, perché gli occhi delle persone sono aperti la maggior parte del tempo, ma i fotografi di solito non pubblicano immagini in cui i soggetti principali hanno gli occhi chiusi.

    Senza addestrare immagini di persone che sbattono le palpebre, gli algoritmi deepfake hanno meno probabilità di creare volti che lampeggiano normalmente. Quando calcoliamo la velocità complessiva di lampeggiamento, e lo confronta con la gamma naturale, abbiamo scoperto che i personaggi nei video deepfake lampeggiano molto meno frequentemente rispetto alle persone reali. La nostra ricerca utilizza l'apprendimento automatico per esaminare l'apertura e la chiusura degli occhi nei video.

    Questo ci dà l'ispirazione per rilevare i video deepfake. Successivamente, sviluppiamo un metodo per rilevare quando la persona nel video lampeggia. Per essere più precisi, scansiona ogni fotogramma di un video in questione, rileva i volti al suo interno e quindi individua automaticamente gli occhi. Quindi utilizza un'altra rete neurale profonda per determinare se l'occhio rilevato è aperto o chiuso, usando l'aspetto dell'occhio, caratteristiche geometriche e movimento.

    Sappiamo che il nostro lavoro sta sfruttando un difetto nel tipo di dati disponibili per addestrare algoritmi deepfake. Per non cadere preda di un simile difetto, abbiamo addestrato il nostro sistema su una vasta libreria di immagini di occhi aperti e chiusi. Questo metodo sembra funzionare bene, e come risultato, abbiamo raggiunto un tasso di rilevamento di oltre il 95%.

    Questa non è l'ultima parola sul rilevamento dei deepfake, Certo. La tecnologia sta migliorando rapidamente, e la competizione tra la generazione e il rilevamento di video falsi è analoga a una partita a scacchi. In particolare, il lampeggiamento può essere aggiunto ai video deepfake includendo immagini del viso con gli occhi chiusi o utilizzando sequenze video per l'allenamento. Le persone che vogliono confondere il pubblico miglioreranno nel realizzare video falsi e noi e altri nella comunità tecnologica dovremo continuare a trovare modi per rilevarli.

    Una persona reale sbatte le palpebre mentre parla.
    Un volto simulato non batte le palpebre come fa una persona reale.

    Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com