David Madras, uno studente di dottorato nel dipartimento di informatica, afferma che ci sono importanti domande da porsi sull'equità delle decisioni prese dai sistemi automatizzati. Credito:Nina Haikara
Dottorato di ricerca dell'Università di Toronto lo studente David Madras afferma che molti degli algoritmi odierni sono bravi a fare previsioni accurate, ma non so come gestire bene l'incertezza. Se un algoritmo mal calibrato prende la decisione sbagliata, di solito è molto sbagliato.
"Un utente umano potrebbe capire una situazione meglio di un computer, se si tratta di informazioni non disponibili perché di natura molto qualitativa, o qualcosa che accade nel mondo reale che non è stato inserito nell'algoritmo, "dice Madras, un ricercatore di machine learning nel dipartimento di informatica che è anche affiliato al Vector Institute for Artificial Intelligence.
"Entrambi possono essere molto importanti e possono avere un effetto su quali previsioni dovrebbero essere [fatte]".
Madras presenta la sua ricerca, "Prevedi responsabilmente:aumentare l'equità imparando a rimandare, " alla Conferenza internazionale sulle rappresentazioni dell'apprendimento (ICLR), a Vancouver questa settimana. La conferenza è incentrata sui metodi e sulle prestazioni dell'apprendimento automatico e riunisce i leader del settore.
Madras dice che lui e Tonian Pitassi, un professore nei dipartimenti di informatica e matematica della U of T e un esperto di teoria computazionale che esplora anche l'equità computazionale, così come Richard Zemel, un professore universitario di informatica e direttore della ricerca del Vector Institute, hanno sviluppato il loro modello tenendo presente l'equità. Dove c'è un grado di incertezza, un algoritmo deve avere la possibilità di rispondere, "Non lo so" e rinvia la sua decisione a un utente umano.
Madras spiega se Facebook dovesse utilizzare un algoritmo per taggare automaticamente le persone nelle immagini, forse non è così importante se l'etichettatura è sbagliata. Ma quando i risultati individuali sono ad alto impatto, il rischio può essere maggiore. Dice che il modello non è stato ancora applicato a nessuna applicazione specifica, ma piuttosto i ricercatori stanno pensando ai tipi di modi in cui potrebbe essere usato nei casi del mondo reale.
"Negli ambienti medici, può essere importante produrre qualcosa che possa essere interpretato - c'è una certa quantità di incertezza che circonda la sua previsione - e un medico dovrebbe decidere se deve essere somministrato un trattamento".
Supervisore laureato di Madras, Zemel, che assumerà una cattedra di ricerca industriale NSERC in Machine Learning quest'estate, sta anche esaminando come rendere più espressivo il machine learning, controllabile ed equo.
Zemel afferma che l'apprendimento automatico basato su dati storici, come l'approvazione di un prestito bancario o la durata delle pene detentive, naturalmente raccoglierà i pregiudizi. E i pregiudizi nel set di dati possono giocare nelle previsioni di una macchina, lui dice.
"In questo documento, pensiamo molto a un decisore esterno. Per addestrare il nostro modello, dobbiamo usare le decisioni storiche prese dai decisori. Gli esiti di tali decisioni, creato dai decisori esistenti, possono essere essi stessi di parte o in un certo senso incompleti".
Madras ritiene che la maggiore attenzione all'equità algoritmica insieme alle questioni di privacy, sicurezza e protezione, contribuirà a rendere l'apprendimento automatico più applicabile alle applicazioni ad alto rischio.
"Sta sollevando importanti domande sul ruolo di un sistema automatizzato che sta prendendo decisioni importanti, e come ottenere [loro] per prevedere nei modi in cui vogliamo che lo facciano."
Madras dice che sta continuando a pensare a questioni di equità e aree correlate, come la causalità:due cose possono essere correlate, perché si verificano frequentemente insieme, ma ciò non significa che l'una causi l'altra.
"Se un algoritmo decide quando concedere un prestito a qualcuno, potrebbe apprendere che le persone che vivono in un determinato codice postale hanno meno probabilità di rimborsare i prestiti. Ma questo può essere fonte di ingiustizia. Non è che vivere in un certo codice postale ti renda meno propenso a rimborsare un prestito, " lui dice.
"È un insieme di problemi interessante e importante su cui lavorare".