Credito:CC0 Dominio pubblico
Gli scienziati affermano di aver sviluppato un framework per rendere gli algoritmi informatici "più sicuri" da usare senza creare pregiudizi basati sulla razza, genere o altri fattori. Il trucco, dicono, è consentire agli utenti di dire all'algoritmo quali tipi di insidie evitare, senza dover sapere molto sulle statistiche o sull'intelligenza artificiale.
Con questa salvaguardia in atto, ospedali, le aziende e altri potenziali utenti che potrebbero essere cauti nell'utilizzare l'apprendimento automatico potrebbero trovarlo uno strumento più appetibile per aiutarli a risolvere i problemi, secondo un rapporto nell'edizione di questa settimana della rivista Scienza .
Gli algoritmi informatici sono utilizzati per prendere decisioni in una serie di impostazioni, dai tribunali alle scuole ai siti di shopping online. I programmi selezionano enormi quantità di dati alla ricerca di modelli utili che possono essere applicati a decisioni future.
Ma i ricercatori hanno lottato con un problema che è diventato sempre più difficile ignorare:sebbene i programmi siano automatizzati, spesso forniscono risultati distorti.
Per esempio, un algoritmo utilizzato per determinare le pene detentive prevedeva tassi di recidiva più elevati per gli imputati neri riconosciuti colpevoli di reati e un rischio inferiore per quelli bianchi. Quelle previsioni si sono rivelate sbagliate, secondo un'analisi di ProPublica.
Pregiudizi come questo spesso hanno origine nel mondo reale. Un algoritmo utilizzato per determinare quali pazienti erano idonei per un programma di coordinamento dell'assistenza sanitaria stava sottoscrivendo i pazienti neri in gran parte perché il codice si basava su dati di spesa sanitaria del mondo reale e i pazienti neri avevano meno dollari spesi per loro rispetto ai bianchi.
Anche se l'informazione in sé non è distorta, gli algoritmi possono ancora produrre ingiusti o altri "risultati indesiderabili, " disse Filippo Tommaso, un ricercatore di intelligenza artificiale presso l'Università del Massachusetts Amherst e autore principale del nuovo studio.
Individuare i processi che potrebbero guidare questi risultati ingiusti, e poi fissarli, può essere un compito opprimente per i medici, ospedali o altri potenziali utenti che desiderano semplicemente uno strumento che li aiuti a prendere decisioni migliori.
"Sono gli esperti nel loro campo, ma forse non nell'apprendimento automatico, quindi non dovremmo aspettarci che abbiano una conoscenza dettagliata di come funzionano gli algoritmi per controllare il comportamento degli algoritmi, " Thomas ha detto. "Vogliamo dare loro un'interfaccia semplice per definire il comportamento indesiderato per la loro applicazione e quindi garantire che l'algoritmo eviti quel comportamento con alta probabilità".
Quindi gli scienziati informatici hanno sviluppato un diverso tipo di algoritmo che ha permesso agli utenti di definire più facilmente quale cattivo comportamento volevano che il loro programma evitasse.
Questo, Certo, rende più difficile il lavoro dei progettisti di algoritmi, Tommaso ha detto, perché devono costruire il loro algoritmo senza sapere quali pregiudizi o altri comportamenti problematici l'eventuale utente non vorrà nel programma.
"Anziché, devono rendere l'algoritmo abbastanza intelligente da capire che quello che l'utente sta dicendo è un comportamento indesiderabile, e poi ragionare da solo su cosa potrebbe causare questo comportamento, e quindi evitarlo con alta probabilità, " ha detto. "Questo rende l'algoritmo un po' più complicato, ma molto più facile da usare per le persone in modo responsabile."
Per testare il loro nuovo framework, i ricercatori l'hanno provato su un set di dati dei punteggi degli esami di ammissione per 43, 303 studenti brasiliani e la media dei voti guadagnati durante i primi tre semestri al college.
Gli algoritmi standard che cercavano di prevedere il GPA di uno studente in base ai punteggi dell'esame di ammissione erano distorti nei confronti delle donne:i voti previsti per le donne erano inferiori a quelli effettivamente avvenuti, e i voti previsti per gli uomini erano più alti. Ciò ha causato un divario di errore tra uomini e donne che era in media di 0,3 punti GPA, abbastanza per fare una grande differenza nelle prospettive di ammissione di uno studente.
Il nuovo algoritmo d'altra parte, ha ridotto tale intervallo di errore entro 0,05 punti GPA, rendendolo un predittore molto più equo del successo degli studenti.
Gli scienziati informatici hanno anche testato la loro struttura su dati simulati per pazienti diabetici. Hanno scoperto che potrebbe regolare le dosi di insulina di un paziente in modo più efficace rispetto a un algoritmo standard, con conseguente minor numero di episodi indesiderati di ipoglicemia.
Ma altri hanno messo in dubbio il nuovo approccio.
Dott. Leo Anthony Celi, un intensivista al Beth Israel Deaconess Medical Center e ricercatore al MIT, ha sostenuto che il modo migliore per evitare distorsioni e altri problemi è mantenere gli esperti di apprendimento automatico aggiornati durante l'intero processo piuttosto che limitare il loro contributo alle fasi iniziali di progettazione. In questo modo possono vedere se un algoritmo si comporta male e apportare le correzioni necessarie.
"Non c'è proprio modo di aggirarlo, "disse Celi, che ha contribuito a sviluppare un programma di intelligenza artificiale per migliorare le strategie di trattamento per i pazienti con sepsi.
Allo stesso modo, utenti in prima linea come medici, infermieri e farmacisti dovrebbero assumere un ruolo più attivo nello sviluppo degli algoritmi su cui si basano, Egli ha detto.
Gli autori del nuovo studio si sono affrettati a sottolineare che il loro framework era più importante degli algoritmi che hanno generato utilizzandolo.
"Non stiamo dicendo che questi siano i migliori algoritmi, " ha detto Emma Brunskill, uno scienziato informatico alla Stanford University e autore senior del documento. "Speriamo che altri ricercatori nei loro laboratori continuino a creare algoritmi migliori".
Brunskill ha aggiunto che le piacerebbe vedere il nuovo framework incoraggiare le persone ad applicare algoritmi a una gamma più ampia di problemi sanitari e sociali.
Il nuovo lavoro susciterà sicuramente il dibattito e forse le conversazioni più necessarie tra le comunità sanitarie e di apprendimento automatico, ha detto Celi.
"Se fa sì che le persone abbiano più discussioni, penso che sia prezioso, " Egli ha detto.
©2019 Los Angeles Times
Distribuito da Tribune Content Agency, LLC.