• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Gli sviluppatori ottengono una spinta open source per la protezione della privacy dei dati

    Credito:CC0 Dominio Pubblico

    Google ha annunciato che sta rilasciando la versione open source di una libreria di privacy differenziale che aiuta ad alimentare alcuni dei propri prodotti.

    Google ha investito nella protezione differenziale della privacy, Per esempio, nel misurare la popolarità del piatto di un ristorante specifico su Google Maps, disse Engadget . Ora lo strumento potrebbe aiutare altri sviluppatori a raggiungere il livello desiderato di difesa della privacy differenziale. "Rilasciando il suo strumento per la privacy differenziale locale, Google renderà più facile per qualsiasi azienda aumentare la propria privacy in buona fede, " disse Cablato .

    Backup. Cos'è la privacy differenziale? Questo è il linguaggio della scienza dei dati. Ecco come lo ha descritto Lily Hay Newman in Cablato :aggiunge strategicamente rumore casuale alle informazioni dell'utente memorizzate nei database in modo che le aziende possano ancora analizzarle senza essere in grado di individuare le persone.

    In precedenza, Andy Greenberg l'aveva coperto Cablato come "uno strumento matematico, " riuscendo a estrarre i dati degli utenti proteggendo allo stesso tempo la privacy degli utenti. Come? Inserisci l'aggiunta di "rumore casuale" alle informazioni della persona "prima che vengano caricate nel cloud".

    Nick Statt in Il Verge ha offerto un'altra istantanea della privacy differenziale come "un approccio crittografico alla scienza dei dati, in particolare per quanto riguarda l'analisi, che consente a chi fa affidamento sull'analisi assistita da software di trarre informazioni da enormi set di dati proteggendo al contempo la privacy degli utenti".

    A maggio, Nicolas Sartor in Mantello d'aria ha scritto su come era legato all'anonimizzazione, un termine che molti altri conoscono già. "Quando si tratta di anonimizzazione dei dati, si incontra inevitabilmente una privacy differenziata. Molti ricercatori sulla privacy lo considerano il "gold standard" dell'anonimizzazione. Famose aziende tecnologiche come Apple o Google lo utilizzano per alcune analisi dei dati e lo commercializzano per sensibilizzare l'opinione pubblica, sottolineando la loro attenzione alla protezione dei dati".

    Per quanto riguarda l'annuncio di Google, Newman ha riferito su ciò che ottengono gli sviluppatori:(1) un set di librerie di privacy differenziale open source che offrono equazioni e modelli necessari per impostare limiti e vincoli sull'identificazione dei dati e (2) un'interfaccia per rendere più semplice per più sviluppatori l'implementazione delle protezioni.

    Miguel Guevara, Responsabile del prodotto, Ufficio Privacy e Protezione dei Dati, giovedì ha pubblicato qualcosa sul blog di Google Developers che chiarisce che non solo gli sviluppatori, ma le aziende e, a loro volta, le persone che servono possono trarre vantaggio da una forte protezione della privacy, mentre la libreria open source è stata progettata per soddisfare le esigenze degli sviluppatori.

    "Che tu sia un urbanista, un piccolo imprenditore, o uno sviluppatore di software, ottenere informazioni utili dai dati può aiutare a far funzionare meglio i servizi e rispondere a domande importanti. Ma, senza forti protezioni della privacy, rischi di perdere la fiducia dei tuoi cittadini, clienti, e utenti".

    Guevera ha detto "Dalla medicina, al governo, agli affari, e oltre, la nostra speranza è che questi strumenti open source aiutino a produrre intuizioni a vantaggio di tutti." Guevara ha offerto un esempio di come l'analisi potrebbe essere implementata dai ricercatori nel settore sanitario.

    "L'analisi dei dati differenzialmente privati...consente alle organizzazioni di apprendere dalla maggior parte dei loro dati, garantendo contemporaneamente che tali risultati non consentano la distinzione o la reidentificazione dei dati di alcun individuo... Ad esempio, se sei un ricercatore sanitario, potresti voler confrontare la quantità media di tempo in cui i pazienti rimangono ricoverati nei vari ospedali per determinare se ci sono differenze nelle cure. La privacy differenziale è un'alta garanzia, mezzi analitici per garantire che casi d'uso come questo siano affrontati nel rispetto della privacy".

    La pagina GitHub ha affermato che il progetto ha "una libreria C++ di algoritmi ε-differenziali privati, che può essere utilizzato per produrre statistiche aggregate su insiemi di dati numerici contenenti informazioni private o sensibili. Inoltre, forniamo un tester stocastico per verificare la correttezza degli algoritmi."

    In realtà, quel tester stocastico è cosa Aiuta la sicurezza della rete Zeljka Zorz ha scoperto che sono le cose più importanti dell'uscita. Ha detto che era per aiutare a individuare glitch e problemi nell'implementazione "che potrebbero rendere la proprietà di privacy differenziale non più valida. Ciò consentirà agli sviluppatori di assicurarsi che la loro implementazione funzioni come dovrebbe".

    Il suo commento ha avuto risonanza alla luce di ciò che Newman in Cablato ha detto di esperti che scoraggiano fortemente gli sviluppatori dal tentare di "tirare il proprio" schema di privacy differenziale, o progettarne uno da zero. "Google spera che il suo strumento open source sia abbastanza facile da usare da poter essere uno sportello unico per gli sviluppatori che altrimenti potrebbero mettersi nei guai".

    CNET ha citato Bryant Gipson, un responsabile tecnico presso Google, in un'intervista. "L'obiettivo è fornire una libreria di algoritmi primari su cui è possibile costruire qualsiasi tipo di soluzione di privacy differenziale".

    © 2019 Scienza X Rete




    © Scienza https://it.scienceaq.com