Credito:CC0 Dominio Pubblico
I progressi nell'intelligenza artificiale hanno creato nuove minacce alla privacy dei dati sanitari, mostra un nuovo studio dell'UC Berkeley.
Lo studio, guidato dal professor Anil Aswani dell'Industrial Engineering &Operations Research Department (IEOR) del College of Engineering e dal suo team, suggerisce che le leggi e i regolamenti attuali non sono affatto sufficienti per mantenere privato lo stato di salute di un individuo di fronte allo sviluppo dell'IA. La ricerca è stata pubblicata oggi su Rete JAMA aperta .
Nel lavoro, che è stato finanziato in parte dal Centro per la sicurezza informatica a lungo termine dell'UC Berkeley, Aswani mostra che usando l'intelligenza artificiale, è possibile identificare gli individui imparando i modelli giornalieri nei dati dei passi (come quelli raccolti dai tracker di attività, smartwatch e smartphone) e correlandola a dati demografici. L'estrazione di due anni di dati che coprono più di 15, 000 americani hanno portato alla conclusione che gli standard sulla privacy associati alla legislazione HIPAA (Health Insurance Portability and Accountability Act) del 1996 devono essere rivisitati e rielaborati.
"Volevamo utilizzare NHANES (il National Health and Nutrition Examination Survey) per esaminare le domande sulla privacy perché questi dati sono rappresentativi della diversa popolazione negli Stati Uniti, Aswani dice. "I risultati evidenziano un grosso problema. Se elimini tutte le informazioni identificative, non ti protegge tanto quanto pensi. Qualcun altro può tornare e rimettere tutto insieme se ha il giusto tipo di informazioni".
"In linea di principio, potresti immaginare Facebook che raccoglie i dati dei passi dall'app sul tuo smartphone, quindi acquistare i dati sanitari da un'altra azienda e abbinare i due, " spiega. "Ora avrebbero dati sanitari che corrispondono ai nomi, e potrebbero iniziare a vendere pubblicità basata su quella o potrebbero vendere i dati ad altri".
Aswani chiarisce che il problema non riguarda i dispositivi, ma con il modo in cui le informazioni acquisite dai dispositivi possono essere utilizzate in modo improprio e potenzialmente vendute sul mercato aperto.
"Non sto dicendo che dovremmo abbandonare questi dispositivi, " dice. "Ma dobbiamo stare molto attenti a come stiamo usando questi dati. Dobbiamo proteggere le informazioni. Se possiamo farlo, è un netto positivo".
Sebbene lo studio abbia esaminato specificamente i dati sui passaggi, Aswani afferma che i risultati suggeriscono una minaccia più ampia alla privacy dei dati sanitari. "Le normative HIPAA rendono la tua assistenza sanitaria privata, ma non coprono tanto quanto pensi, " dice. "Molti gruppi, come le aziende tecnologiche, non sono coperti da HIPAA, e solo le informazioni molto specifiche non possono essere condivise dalle attuali regole HIPAA. Ci sono aziende che acquistano dati sanitari. Dovrebbero essere dati anonimi, ma il loro intero modello di business è trovare un modo per associare nomi a questi dati e venderli".
Aswani afferma di essere preoccupato che, poiché i progressi nell'intelligenza artificiale rendano più facile per le aziende l'accesso ai dati sanitari, aumenterà la tentazione per le aziende di utilizzarlo in modi illegali o non etici. datori di lavoro, prestatori di mutui, le società di carte di credito e altri potrebbero potenzialmente utilizzare l'intelligenza artificiale per discriminare in base alla gravidanza o allo stato di disabilità, ad esempio.
"Idealmente, quello che mi piacerebbe vedere da questo sono nuovi regolamenti o regole che proteggono i dati sanitari, ", dice. "Ma in realtà c'è una grande spinta per indebolire anche i regolamenti in questo momento. Ad esempio, il gruppo di regolamentazione per HIPAA ha richiesto commenti sull'aumento della condivisione dei dati. Il rischio è che se le persone non sono consapevoli di ciò che sta accadendo, le regole che abbiamo saranno indebolite. E il fatto è che i rischi di perdere il controllo della nostra privacy quando si tratta di assistenza sanitaria sono in realtà in aumento e non in diminuzione".