Un nuovo studio dell’Università della California, Berkeley, ha scoperto che i deepfake vocali possono spesso ingannare le persone, anche dopo che sono state addestrate su come rilevarli.
Lo studio, pubblicato sulla rivista _PLoS One_, ha chiesto a 33 persone di ascoltare una serie di deepfake vocali e registrazioni reali. Ai partecipanti è stato quindi chiesto di valutare quanto fossero sicuri che ciascuna registrazione fosse reale o falsa.
I risultati hanno mostrato che i partecipanti sono stati ingannati dai deepfake vocali circa il 50% delle volte, anche dopo essere stati addestrati su come rilevarli. Ciò suggerisce che i deepfake vocali stanno diventando sempre più sofisticati e difficili da rilevare.
Gli autori dello studio affermano che le loro scoperte hanno implicazioni per l'uso dei deepfake vocali nel mondo reale. Avvertono che i deepfake vocali potrebbero essere utilizzati per diffondere disinformazione, impersonare altri o commettere frodi.
"I nostri risultati suggeriscono che dobbiamo essere più cauti nel credere a ciò che sentiamo", ha detto il coautore dello studio Dan Goldstein. "I deepfake vocali stanno diventando sempre più realistici e sempre più difficili da individuare."
Gli autori dello studio raccomandano alle persone di adottare le seguenti misure per proteggersi dai deepfake vocali:
* Tieni presente che esistono deepfake vocali e sii scettico nei confronti di qualsiasi registrazione audio che incontri.
* Prestare attenzione ai segnali visivi in una registrazione. Se la bocca della persona non si muove in sincronia con le parole che dice, potrebbe trattarsi di un deepfake.
* Ascolta eventuali suoni strani o innaturali in una registrazione. I deepfake hanno spesso un suono elettronico o robotico.
* Se non sei sicuro che una registrazione sia reale o falsa, prova a trovare altre fonti di informazione per verificarla.
Gli autori dello studio affermano che questi passaggi possono aiutare le persone a proteggersi dai deepfake vocali, ma riconoscono anche che i deepfake vocali sono un problema serio che richiederà uno sforzo concertato per essere affrontato.
"Dobbiamo continuare a ricercare i deepfake vocali e sviluppare nuovi modi per rilevarli", ha affermato Goldstein. "Dobbiamo anche aumentare la consapevolezza sui pericoli dei deepfake vocali ed educare le persone su come proteggersi".