• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Sicurezza più efficiente per il machine learning basato su cloud

    Un nuovo metodo di crittografia ideato dai ricercatori del MIT protegge i dati utilizzati nelle reti neurali online, senza rallentare drasticamente i loro tempi di esecuzione, che è promettente per l'analisi di immagini mediche utilizzando reti neurali basate su cloud e altre applicazioni. Credito:Chelsea Turner

    Un nuovo metodo di crittografia ideato dai ricercatori del MIT protegge i dati utilizzati nelle reti neurali online, senza rallentare drasticamente i loro tempi di esecuzione. Questo approccio è promettente per l'utilizzo di reti neurali basate su cloud per l'analisi di immagini mediche e altre applicazioni che utilizzano dati sensibili.

    L'outsourcing dell'apprendimento automatico è una tendenza in aumento nel settore. Le principali aziende tecnologiche hanno lanciato piattaforme cloud che svolgono attività di calcolo pesanti, come, dire, l'esecuzione dei dati attraverso una rete neurale convoluzionale (CNN) per la classificazione delle immagini. Le piccole imprese a corto di risorse e altri utenti possono caricare dati su tali servizi a pagamento e ottenere risultati in diverse ore.

    Ma cosa succede se ci sono fughe di dati privati? Negli ultimi anni, i ricercatori hanno esplorato varie tecniche di calcolo sicuro per proteggere tali dati sensibili. Ma questi metodi hanno svantaggi di prestazioni che rendono la valutazione della rete neurale (test e convalida) lenta, a volte fino a milioni di volte più lenta, limitando la loro più ampia adozione.

    In un documento presentato alla USENIX Security Conference di questa settimana, I ricercatori del MIT descrivono un sistema che unisce due tecniche convenzionali - crittografia omomorfa e circuiti confusi - in un modo che aiuta le reti a eseguire ordini di grandezza più velocemente di quanto non facciano con gli approcci convenzionali.

    I ricercatori hanno testato il sistema, chiamato GAZELLA, su attività di classificazione delle immagini a due parti. Un utente invia dati di immagine crittografati a un server online valutando una CNN in esecuzione su GAZELLE. Dopodichè, entrambe le parti condividono le informazioni crittografate avanti e indietro per classificare l'immagine dell'utente. Durante tutto il processo, il sistema assicura che il server non apprenda mai i dati caricati, mentre l'utente non apprende mai nulla sui parametri di rete. Rispetto ai sistemi tradizionali, però, GAZELLE ha funzionato da 20 a 30 volte più velocemente dei modelli all'avanguardia, riducendo la larghezza di banda di rete richiesta di un ordine di grandezza.

    Un'applicazione promettente per il sistema sta addestrando le CNN a diagnosticare le malattie. Gli ospedali potrebbero ad esempio, formare una CNN per apprendere le caratteristiche di determinate condizioni mediche dalle immagini di risonanza magnetica (MRI) e identificare tali caratteristiche nelle risonanze magnetiche caricate. L'ospedale potrebbe rendere disponibile il modello nel cloud per altri ospedali. Ma il modello è addestrato su, e si affida ulteriormente, dati privati ​​del paziente. Poiché non esistono modelli di crittografia efficienti, questa applicazione non è ancora pronta per la prima serata.

    "In questo lavoro, mostriamo come eseguire in modo efficiente questo tipo di comunicazione sicura a due parti combinando queste due tecniche in modo intelligente, " dice il primo autore Chiraag Juvekar, un dottorato di ricerca studente presso il Dipartimento di Ingegneria Elettrica e Informatica (EECS). "Il prossimo passo è prendere dati medici reali e dimostrare che, anche quando lo ridimensioniamo per le applicazioni che interessano agli utenti reali, fornisce comunque prestazioni accettabili."

    I coautori del documento sono Vinod Vaikuntanathan, professore associato in EECS e membro del Computer Science and Artificial Intelligence Laboratory, e Anantha Chandrakasan, preside della Scuola di Ingegneria e Vannevar Bush Professor di Ingegneria Elettrica e Informatica.

    Massimizzare le prestazioni

    Le CNN elaborano i dati delle immagini attraverso più livelli di calcolo lineari e non lineari. I livelli lineari fanno la matematica complessa, chiamata algebra lineare, e assegnare alcuni valori ai dati. Ad una certa soglia, i dati vengono emessi su livelli non lineari che eseguono calcoli più semplici, prendere decisioni (come identificare le caratteristiche dell'immagine), e inviare i dati al livello lineare successivo. Il risultato finale è un'immagine con una classe assegnata, come veicolo, animale, persona, o caratteristica anatomica.

    I recenti approcci alla protezione delle CNN hanno comportato l'applicazione di crittografia omomorfica o circuiti confusi per elaborare i dati in un'intera rete. Queste tecniche sono efficaci per proteggere i dati. "Su carta, sembra che risolva il problema, " dice Juvekar. Ma rendono inefficienti le reti neurali complesse, "quindi non li useresti per nessuna applicazione del mondo reale."

    Crittografia omomorfa, utilizzato nel cloud computing, riceve ed esegue il calcolo tutto in dati crittografati, chiamato testo cifrato, e genera un risultato crittografato che può quindi essere decifrato da un utente. Quando applicato alle reti neurali, questa tecnica è particolarmente veloce ed efficiente nel calcolo dell'algebra lineare. Però, deve introdurre un po' di rumore nei dati ad ogni livello. Su più strati, il rumore si accumula, e il calcolo necessario per filtrare quel rumore diventa sempre più complesso, rallentamento della velocità di calcolo.

    I circuiti confusi sono una forma di calcolo sicuro a due parti. La tecnica prende un input da entrambe le parti, fa qualche calcolo, e invia due input separati a ciascuna parte. In quel modo, le parti si scambiano dati, ma non vedono mai i dati dell'altra parte, solo l'output rilevante dalla loro parte. La larghezza di banda necessaria per comunicare i dati tra le parti, però, scale con complessità di calcolo, non con la dimensione dell'input. In una rete neurale online, questa tecnica funziona bene nei livelli non lineari, dove il calcolo è minimo, ma la larghezza di banda diventa ingombrante nei livelli lineari pesanti per la matematica.

    I ricercatori del MIT, Invece, combinato le due tecniche in un modo che aggira le loro inefficienze.

    Nel loro sistema, un utente caricherà il testo cifrato su una CNN basata su cloud. L'utente deve avere la tecnica dei circuiti confusi in esecuzione sul proprio computer. La CNN esegue tutti i calcoli nel livello lineare, quindi invia i dati al livello non lineare. A quel punto, la CNN e l'utente condividono i dati. L'utente esegue alcuni calcoli su circuiti confusi, e invia i dati alla CNN. Suddividendo e condividendo il carico di lavoro, il sistema limita la crittografia omomorfa a eseguire calcoli matematici complessi uno strato alla volta, quindi i dati non diventano troppo rumorosi. Limita anche la comunicazione dei circuiti confusi ai soli strati non lineari, dove funziona in modo ottimale.

    "Stiamo usando solo le tecniche dove sono più efficienti, "Dice Juvekar.

    Condivisione segreta

    Il passaggio finale è stato garantire che gli strati circuitali sia omomorfi che confusi mantenessero uno schema di randomizzazione comune, chiamato "condivisione segreta". In questo schema, i dati sono suddivisi in parti separate che vengono date a parti separate. Tutte le parti sincronizzano le loro parti per ricostruire i dati completi.

    In GAZELLA, quando un utente invia dati crittografati al servizio basato su cloud, è diviso tra le due parti. Ad ogni condivisione viene aggiunta una chiave segreta (numeri casuali) che solo il proprietario conosce. Durante il calcolo, ciascuna parte avrà sempre una parte dei dati, più numeri casuali, quindi appare completamente casuale. Alla fine del calcolo, le due parti sincronizzano i loro dati. Solo allora l'utente chiede al servizio basato su cloud la sua chiave segreta. L'utente può quindi sottrarre la chiave segreta da tutti i dati per ottenere il risultato.

    "Alla fine del calcolo, vogliamo che la prima parte ottenga i risultati della classifica e la seconda non ottenga assolutamente nulla, "Dice Juvekar. Inoltre, "la prima parte non apprende nulla sui parametri del modello".

    Questa storia è stata ripubblicata per gentile concessione di MIT News (web.mit.edu/newsoffice/), un popolare sito che copre notizie sulla ricerca del MIT, innovazione e didattica.




    © Scienza https://it.scienceaq.com