Credito:Pixabay/CC0 di dominio pubblico
Dal settore bancario alla comunicazione, la nostra vita quotidiana moderna è guidata dai dati con continue preoccupazioni sulla privacy. Ora, un nuovo documento EPFL pubblicato su Nature Computational Science sostiene che molte promesse fatte sui meccanismi di tutela della privacy non saranno mai mantenute e che dobbiamo accettare questi limiti intrinseci e non inseguire l'impossibile.
L'innovazione basata sui dati sotto forma di medicina personalizzata, servizi pubblici migliori o, ad esempio, una produzione industriale più verde ed efficiente promette di apportare enormi benefici alle persone e al nostro pianeta e l'accesso diffuso ai dati è considerato essenziale per guidare questo futuro. Tuttavia, le pratiche aggressive di raccolta e analisi dei dati lanciano l'allarme sui valori della società e sui diritti fondamentali.
Di conseguenza, come ampliare l'accesso ai dati salvaguardando la riservatezza delle informazioni personali sensibili è diventata una delle sfide più comuni per liberare il potenziale delle tecnologie basate sui dati e un nuovo documento del Security and Privacy Engineering Lab (SPRING) dell'EPFL nella School of Compupter and Communication Sciences sostiene che la promessa che qualsiasi utilizzo dei dati sia risolvibile sia in termini di buona utilità che di privacy è come inseguire arcobaleni.
La responsabile dello SPRING Lab e coautrice dell'articolo, la professoressa assistente Carmela Troncoso, afferma che esistono due approcci tradizionali per preservare la privacy:"Esiste il percorso per utilizzare la crittografia a tutela della privacy, elaborare i dati in un dominio decrittografato e ottenere un risultato. Ma il limite è la necessità di progettare algoritmi molto mirati e non solo eseguire calcoli generici."
Il problema con questo tipo di tecnologia per la tutela della privacy, sostiene il documento, è che non risolvono uno dei problemi chiave più rilevanti per i professionisti:come condividere dati di alta qualità a livello individuale in modo da preservare la privacy ma consentire analisti per estrarre l'intero valore di un set di dati in modo estremamente flessibile.
La seconda strada che tenta di risolvere questa sfida è l'anonimizzazione dei dati, ovvero la rimozione di nomi, località e codici postali ma, sostiene Troncoso, spesso il problema sono i dati stessi. "C'è un famoso esempio di Netflix in cui la società ha deciso di rilasciare set di dati e indire un concorso pubblico per produrre algoritmi di "raccomandazione" migliori. Ha rimosso i nomi dei clienti ma quando i ricercatori hanno confrontato le valutazioni dei film con altre piattaforme in cui le persone valutano i film, sono stati in grado di rendere anonime le persone."
Più recentemente, i dati sintetici sono emersi come una nuova tecnica di anonimizzazione, tuttavia il documento suggerisce che, contrariamente alle promesse fatte dai suoi sostenitori, sono soggetti agli stessi compromessi privacy/utilità della tradizionale anonimizzazione dei dati. "Come diciamo nel nostro articolo, ricercatori e professionisti dovrebbero accettare il compromesso intrinseco tra un'elevata flessibilità nell'utilità dei dati e solide garanzie sulla privacy", ha affermato Theresa Stadler, assistente di dottorato presso lo SPRING Lab e coautrice del documento.
"Ciò potrebbe significare che l'ambito delle applicazioni basate sui dati deve essere ridotto e i titolari dei dati dovranno fare scelte esplicite sull'approccio di condivisione dei dati più adatto al loro caso d'uso", ha continuato Stadler.
Un altro messaggio chiave del documento è l'idea di un rilascio più lento e controllato della tecnologia. Oggi, lo schieramento ultraveloce è la norma con una mentalità "ripareremo più tardi" se le cose vanno male, un approccio che Troncoso ritiene molto pericoloso:"Dobbiamo iniziare ad accettare che ci sono dei limiti. Vogliamo davvero che continuare questi dati guidati gratuitamente per tutti dove non c'è privacy e con un grande impatto sulla democrazia? È come il giorno della marmotta, ne parliamo da 20 anni e la stessa cosa sta accadendo ora con l'apprendimento automatico. Mettiamo gli algoritmi là fuori , sono di parte e la speranza è che in seguito vengano risolti. Ma cosa succede se non possono essere riparati?"
Tuttavia, funzionalità limitate e privacy elevata non sono il modello di business dei giganti della tecnologia e Troncoso esorta tutti noi a pensare più attentamente a come affrontano questo problema critico.
"Molte delle cose che fanno Google e Apple sono essenzialmente dissimulare le loro pratiche dannose e chiudere il mercato. Ad esempio, Apple non consente alle app di raccogliere informazioni, ma raccoglie i dati stessi in un cosiddetto modo di "preservare la privacy", quindi vende quello che stiamo dicendo è che non esiste un modo per preservare la privacy. La domanda è "la tecnologia ha impedito danni al sistema o ha semplicemente reso il sistema ugualmente dannoso"? La privacy di per sé non è un obiettivo, la privacy è un mezzi con cui proteggerci", conclude Troncoso.