• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Aspettare, quel video è reale? La corsa contro i deepfake e i pericoli delle registrazioni manipolate

    Credito:CC0 Dominio pubblico

    In passato ci voleva molto tempo ed esperienza per falsificare realisticamente i video. Non più.

    Per decenni, rendering video dall'aspetto autentico sono stati visti solo in film di fantascienza ad alto budget come "Star Wars". Però, grazie all'aumento dell'intelligenza artificiale, le riprese mediche sono diventate più accessibili che mai, che secondo i ricercatori rappresenta una minaccia per la sicurezza nazionale.

    "Fino a poco tempo fa, siamo stati in gran parte in grado di fidarci delle registrazioni audio (e) video, " ha detto Hany Farid, professore di informatica al Dartmouth College. Ha affermato che i progressi nell'apprendimento automatico hanno democratizzato l'accesso a strumenti per la creazione di video e audio falsi sofisticati e avvincenti.

    "Non ci vuole uno sforzo di immaginazione per vedere come questo può essere usato come arma per interferire con le elezioni, seminare disordini civili o perpetrare frodi, " Disse Farid.

    Con le elezioni presidenziali del 2020 incombenti e l'agenzia di difesa degli Stati Uniti preoccupata per i video falsificati che ingannano gli elettori, I legislatori e le istituzioni educative stanno correndo per sviluppare software in grado di individuare e fermare i cosiddetti deepfake prima ancora che arrivino su Internet.

    Deepfake

    Grande preoccupazione per l'idea che i falsi video abbiano iniziato a fare notizia alla fine del 2017, quando il software per computer è stato utilizzato per sovrapporre le celebrità al porno utilizzando software per computer.

    Uno degli esempi più noti è stato creato dalla società di produzione del regista Jordan Peele nel 2018. Il video mostra l'ex presidente Barack Obama che avverte le persone di non credere a tutto ciò che vedono su Internet.

    Però, in realtà non è Obama a parlare. È Peele che fa il ventriloquio sull'ex presidente.

    Avvertenza:il video di seguito include un linguaggio volgare per chiarire il punto e potrebbe non essere adatto ai giovani spettatori.

    Da allora, il Dipartimento della Difesa, attraverso la Defense Advanced Research Projects Agency (DARPA), ha iniziato a sviluppare modi per rilevare quando un video è un deepfake.

    Un portavoce dell'agenzia ha dichiarato a marzo che mentre molte manipolazioni video vengono eseguite per divertimento, altri sono molto più pericolosi in quanto possono essere utilizzati per diffondere propaganda e disinformazione.

    L'organizzazione sta cercando di sviluppare flag e filtri online che impediscano il caricamento su Internet di contenuti manipolati.

    Bastano circa 500 immagini o 10 secondi di video per creare un deepfake realistico, secondo Siwei Lyu, un ricercatore che sta lavorando con il Dipartimento della Difesa per sviluppare software per rilevare e prevenire la diffusione di deepfake.

    Lyu ha affermato che chiunque pubblichi foto su siti di social network come Instagram rischia di essere sottoposto a deepfake.

    Soluzioni software

    Il primo software che Lyu e il suo team di ricercatori dell'Università di Albany hanno introdotto l'anno scorso potrebbero individuare un video deepfake in un batter d'occhio, letteralmente, analizzando la frequenza con cui i volti simulati lampeggiano o non lampeggiano.

    "Abbiamo scoperto che i soggetti (nei video deepfake) non lampeggiano molto, e a volte per niente, "Lyu ha detto. "Abbiamo poi chiesto perché questo accade."

    I ricercatori hanno scoperto che il software utilizzato per creare deepfake spesso dipende dalle foto disponibili su Internet. Non ci sono molte foto disponibili di persone di alto profilo con gli occhi chiusi, quindi i soggetti animati nei video falsi non lampeggiano, ha detto Lyu.

    Quando i creatori di deepfake iniziarono a prendere atto del nuovo software, i ricercatori hanno sviluppato altri metodi per individuare i deepfake come l'utilizzo di algoritmi che rilevano movimenti innaturali tra volti e teste, nonché software che analizza le riprese per la perdita di dettagli sottili.

    "La pelle del viso generato dal deepfake tende ad essere eccessivamente liscia, e alcuni dettagli di capelli e denti andranno persi, " disse Lyu. "Se guardi i denti più da vicino, assomigliano più a un intero blocco bianco che a singoli denti."

    Anche i ricercatori dell'Università di Washington stanno sperimentando la tecnologia deepfake. La scuola ha capito come trasformare le clip audio in un video sincronizzato con le labbra della persona che pronuncia quelle parole nel 2017.

    criminalizzazione

    Alla fine dell'anno scorso, Il senatore Ben Sasse (R-Neb.) ha presentato al Congresso un disegno di legge che punirebbe le persone per la creazione e la distribuzione dannose di deepfake. Il conto, introdotto il giorno prima della chiusura del governo, volò sotto il radar e morì. Ma l'ufficio di Sasse ha intenzione di reintrodurlo.

    USA Today ha contattato Sasse per ulteriori informazioni.

    Il senatore ha detto in una recente intervista con il conduttore radiofonico Glenn Beck che la "tempesta perfetta di falsi profondi" arriverà presto.

    Lo stato di New York ha introdotto un disegno di legge nel 2018 che punirebbe le persone che creano video digitali di soggetti senza il loro consenso.

    Nonostante le preoccupazioni per gli ipotetici pericoli, l'abuso di deepfake deve ancora essere visto al di fuori dei video per adulti. The Verge ha pubblicato un rapporto a marzo in cui si chiede se la tecnologia per lo scambio di volti sia anche una grave minaccia visto che è ampiamente disponibile da anni.

    Lyu ha detto che dubita che i deepfake possano iniziare una guerra, ed è improbabile che abbiano un effetto duraturo sulla società man mano che le persone diventano sempre più consapevoli del fenomeno.

    Lyu suggested that people may even become desensitized by them.

    Perception-altering technology was used in April to break down language barriers in a global malaria awareness campaign featuring David Beckham.

    The charity Malaria No Moreposted a video on YouTube highlighting how it used deepfake tech to effectively lip-sync the video of Beckham with the voices of several other people.

    To create the 55-second ad, the nonprofit used visual and voice-altering tech to make Beckham appear multilingual. His speech begins in English, then transitions to eight other languages through dubbing.

    Oggi, we live in a world in which millions of real people follow computer-generated influencers on social media and don't even know it at the same time governments have worked to develop animated news anchors that have human-like movements.

    One of the clearest examples of real humans adapting to unreal computer-generated people is Lil Miquela, a digitally created "it-girl" with 1.5 million followers on Instagram that she interacts with via direct messages.

    Despite what's in her photo captions, she's not "daydreaming" or partying at Coachella. She's fake, but her followers don't care. They like and comment on her pictures as if she's a real person.

    AI generated humans have also begun showing up on television.

    The Chinese government-run news agency Xinhua began testing out AI news anchors in 2018, a move it claims as the first in the world.

    A prima vista, the virtual newsman appears to be an ordinary person with facial expressions and movements that correspond with his speaking voice.

    But seconds into the video, it's apparent that he's not real.

    "I will work tirelessly to keep you informed as texts will be typed into my system uninterrupted, " the news anchor said monotonically in an introductory video. "The development of the media industry calls for continuous innovation and deep integration with the international advanced technologies."

    The agency's first fake female news anchor went live in February and she appears to be even more realistic.

    (c)2019 USA Today
    Distribuito da Tribune Content Agency, LLC.




    © Scienza https://it.scienceaq.com