Credito:CC0 Dominio Pubblico
Ricercatori dei dati del CSIRO61, il braccio specializzato in dati e digitale dell'agenzia scientifica nazionale australiana, hanno sviluppato una serie di tecniche per la prima volta al mondo per "vaccinare" efficacemente gli algoritmi contro gli attacchi avversari, un progresso significativo nella ricerca sull'apprendimento automatico.
Gli algoritmi "imparano" dai dati su cui vengono addestrati per creare un modello di apprendimento automatico in grado di eseguire un determinato compito in modo efficace senza bisogno di istruzioni specifiche, come fare previsioni o classificare accuratamente immagini ed e-mail. Queste tecniche sono già ampiamente utilizzate, ad esempio per identificare le e-mail di spam, diagnosticare malattie dai raggi X, prevedere i raccolti e presto guideremo le nostre auto.
Mentre la tecnologia ha un enorme potenziale per trasformare positivamente il nostro mondo, l'intelligenza artificiale e l'apprendimento automatico sono vulnerabili agli attacchi avversari, una tecnica utilizzata per ingannare i modelli di apprendimento automatico attraverso l'input di dati dannosi causandone il malfunzionamento.
Dottor Richard Nock, Il leader del gruppo di apprendimento automatico presso Data61 di CSIRO ha affermato che aggiungendo uno strato di rumore (cioè un avversario) su un'immagine, gli aggressori possono ingannare i modelli di apprendimento automatico classificando erroneamente l'immagine.
"Gli attacchi avversari si sono dimostrati in grado di indurre un modello di apprendimento automatico a etichettare erroneamente un segnale di stop come segnale di velocità, che potrebbe avere effetti disastrosi nel mondo reale.
"Le nostre nuove tecniche prevengono gli attacchi avversari utilizzando un processo simile alla vaccinazione, " disse il dottor Nock.
"Attuiamo una versione debole di un avversario, come piccole modifiche o distorsioni a una raccolta di immagini, per creare un set di dati di allenamento più "difficile". Quando l'algoritmo viene addestrato su dati esposti a una piccola dose di distorsione, il modello risultante è più robusto e immune agli attacchi avversari, "
In un documento di ricerca accettato alla International Conference on Machine Learning (ICML) del 2019, i ricercatori dimostrano anche che le tecniche di "vaccinazione" sono costruite dai peggiori esempi contraddittori possibili, e può quindi resistere ad attacchi molto forti.
Adrian Turner, Il CEO di Data61 di CSIRO ha affermato che questa ricerca rappresenta un contributo significativo al crescente campo dell'apprendimento automatico contraddittorio.
"L'intelligenza artificiale e l'apprendimento automatico possono aiutare a risolvere alcuni dei più grandi problemi sociali del mondo, sfide economiche e ambientali, ma ciò non può accadere senza una ricerca mirata su queste tecnologie.
"Le nuove tecniche contro gli attacchi contraddittori sviluppate presso Data61 stimoleranno una nuova linea di ricerca sull'apprendimento automatico e garantiranno l'uso positivo delle tecnologie di intelligenza artificiale trasformative, " ha detto il signor Turner.
Il documento di ricerca, "Monge smussa Bayes:risultati di durezza per l'addestramento contraddittorio, " è stato presentato alla ICML il 13 giugno a Los Angeles.