• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Cos'è la privacy differenziale e come può proteggere i tuoi dati?

    Le aziende tecnologiche possono utilizzare la privacy differenziale per raccogliere e condividere dati aggregati sulle abitudini degli utenti, pur mantenendo la privacy individuale. Credito:Tim Snell/Flickr, CC BY-ND

    Non è un segreto che le grandi aziende tecnologiche come Facebook, Google, Apple e Amazon si stanno sempre più infiltrando nelle nostre interazioni personali e sociali per raccogliere grandi quantità di dati su di noi ogni giorno. Allo stesso tempo, le violazioni della privacy nel cyberspazio fanno regolarmente notizia in prima pagina.

    Quindi, come dovrebbe essere protetta la privacy in un mondo in cui i dati vengono raccolti e condivisi con velocità e ingegnosità crescenti?

    La privacy differenziale è un nuovo modello di sicurezza informatica che, secondo i sostenitori, può proteggere i dati personali molto meglio dei metodi tradizionali.

    La matematica su cui si basa è stata sviluppata 10 anni fa, e il metodo è stato adottato da Apple e Google negli ultimi anni.

    Cos'è la privacy differenziale?

    La privacy differenziale consente alle aziende tecnologiche di raccogliere e condividere informazioni aggregate sulle abitudini degli utenti, mantenendo la privacy dei singoli utenti.

    Per esempio, supponiamo di voler mostrare i percorsi più popolari che le persone percorrono camminando in un parco. Segui i percorsi di 100 persone che camminano regolarmente nel parco, e se camminano sul sentiero o attraverso l'erba.

    Ma invece di condividere le persone specifiche che prendono ogni strada, condividi i dati aggregati raccolti nel tempo. Le persone che visualizzano i tuoi risultati potrebbero sapere che 60 persone su 100 preferiscono prendere una scorciatoia nell'erba, ma non quali 60 persone.

    Perchè ne abbiamo bisogno?

    Molti dei governi del mondo hanno politiche rigorose su come le aziende tecnologiche raccolgono e condividono i dati degli utenti. Le aziende che non seguono le regole possono affrontare multe salate. Un tribunale belga ha recentemente ordinato a Facebook di interrompere la raccolta di dati sulle abitudini di navigazione degli utenti su siti Web esterni, o rischiare multe di 250€, 000 al giorno.

    Per molte aziende, in particolare le multinazionali che operano in diverse giurisdizioni, questo li lascia in una posizione delicata quando si tratta di raccogliere e utilizzare i dati dei clienti.

    Da una parte, queste aziende hanno bisogno dei dati degli utenti in modo da poter fornire servizi di alta qualità a vantaggio degli utenti, come consigli personalizzati. D'altra parte, potrebbero essere addebitati se raccolgono troppi dati utente, o se tentano di trasferire dati da una giurisdizione all'altra.

    I tradizionali strumenti di tutela della privacy come la crittografia non possono risolvere questo dilemma poiché impedisce alle aziende tecnologiche di accedere ai dati. E l'anonimato riduce il valore dei dati:un algoritmo non può fornirti consigli personalizzati se non conosce le tue abitudini.

    Credito:Marco Verch/Flickr, CC BY

    Come funziona?

    Continuiamo l'esempio dei percorsi a piedi attraverso un parco. Se conosce l'identità di coloro che sono stati inclusi nello studio, ma non sai chi ha preso quale strada, quindi potresti presumere che la privacy sia protetta. Ma potrebbe non essere così.

    Supponiamo che qualcuno che sta visualizzando i tuoi dati voglia accertare se Bob preferisce camminare sull'erba o sul sentiero. Hanno ottenuto informazioni di base sulle altre 99 persone nello studio, che dice loro che 40 persone preferiscono camminare sul sentiero e 59 preferiscono camminare sull'erba. Perciò, possono dedurre che Bob, chi è la centesima persona nel database, è la sessantesima persona che preferisce camminare sull'erba.

    Questo tipo di attacco è chiamato attacco differenziato, ed è piuttosto difficile difendersi poiché non è possibile controllare la quantità di conoscenze di base che qualcuno può ottenere. La privacy differenziale mira a difendersi da questo tipo di attacco.

    Qualcuno che deduce il tuo percorso a piedi potrebbe non sembrare troppo serio, ma se sostituisci i percorsi a piedi con i risultati del test HIV, quindi puoi vedere che c'è il potenziale per una grave violazione della privacy.

    Il modello di privacy differenziale garantisce che anche se qualcuno ha informazioni complete su 99 persone su 100 in un set di dati, non sono ancora in grado di dedurre le informazioni sulla persona finale.

    Il meccanismo principale per ottenere ciò è aggiungere rumore casuale ai dati aggregati. Nell'esempio del percorso, potresti dire che il numero di persone che preferiscono attraversare l'erba è 59 o 61, invece del numero esatto di 60. Il numero impreciso può preservare la privacy di Bob, ma avrà un impatto minimo sul modello:circa il 60% delle persone preferisce prendere una scorciatoia.

    Il rumore è accuratamente progettato. Quando Apple ha utilizzato la privacy differenziale in iOS 10, aggiungeva rumore agli input dei singoli utenti. Ciò significa che può monitorare, Per esempio, gli emoji più usati, ma l'utilizzo delle emoji di ogni singolo utente è mascherato.

    Cynthia Dwork, l'inventore della privacy differenziale, ha proposto meravigliose dimostrazioni matematiche su quanto rumore sia sufficiente per soddisfare il requisito della privacy differenziale.

    Quali sono le sue applicazioni pratiche?

    La privacy differenziale può essere applicata a tutto, dai sistemi di raccomandazione ai servizi basati sulla posizione e ai social network. Apple utilizza la privacy differenziale per raccogliere informazioni anonime sull'utilizzo da dispositivi come iPhone, iPad e Mac. Il metodo è facile da usare, e legalmente in chiaro.

    La privacy differenziale consentirebbe anche a un'azienda come Amazon di accedere alle tue preferenze di acquisto personalizzate nascondendo le informazioni sensibili sulla tua lista di acquisti storica. Facebook potrebbe utilizzarlo per raccogliere dati comportamentali per pubblicità mirata, senza violare le politiche sulla privacy di un paese.

    Come potrebbe essere utilizzato in futuro?

    Diversi paesi hanno politiche sulla privacy diverse, e i documenti sensibili attualmente devono essere controllati manualmente prima che vengano spostati da un paese all'altro. Questo richiede tempo e denaro.

    Recentemente, un team della Deakin University ha sviluppato una tecnologia di privacy differenziale per automatizzare i processi di privacy all'interno delle comunità di condivisione del cloud in tutti i paesi.

    Propongono di utilizzare formule matematiche per modellare le leggi sulla privacy di ciascun paese che potrebbero essere tradotte in "middleware" (software) per garantire la conformità dei dati. L'utilizzo di una privacy differenziale in questo modo potrebbe proteggere la privacy degli utenti e risolvere un problema di condivisione dei dati per le aziende tecnologiche.

    Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com