Credito:Massachusetts Institute of Technology
Abbiamo imparato negli ultimi anni che i sistemi di intelligenza artificiale possono essere ingiusti, che è pericoloso, poiché vengono sempre più utilizzati per fare di tutto, dalla previsione del crimine alla determinazione delle notizie che consumiamo. Lo studio dell'anno scorso che mostrava il razzismo degli algoritmi di riconoscimento facciale ha dimostrato una verità fondamentale sull'IA:se ti alleni con dati distorti, otterrai risultati distorti.
Un team del MIT CSAIL sta lavorando a una soluzione, con un algoritmo che può automaticamente "de-biasare" i dati ricampionandoli per essere più bilanciati.
L'algoritmo può apprendere sia un compito specifico come il rilevamento del volto, così come la struttura sottostante dei dati di formazione, che gli consente di identificare e ridurre al minimo eventuali pregiudizi nascosti. Nei test l'algoritmo ha ridotto il "bias categorico" di oltre il 60 percento rispetto ai modelli di rilevamento facciale all'avanguardia, mantenendo contemporaneamente la precisione complessiva di questi sistemi. Il team ha valutato l'algoritmo sullo stesso set di dati di immagini facciali sviluppato l'anno scorso dai ricercatori del MIT Media Lab.
Molti approcci esistenti in questo campo richiedono almeno un certo livello di input umano nel sistema per definire pregiudizi specifici che i ricercatori vogliono che impari. In contrasto, l'algoritmo del team del MIT può guardare un set di dati, apprendere ciò che è intrinsecamente nascosto al suo interno, e ricampionarlo automaticamente per essere più equo senza bisogno di un programmatore nel ciclo.
"La classificazione facciale in particolare è una tecnologia che è spesso vista come 'risolta, ' anche se è diventato chiaro che i set di dati utilizzati spesso non sono adeguatamente controllati, " dice il dottorando Alexander Amini, che è stato co-autore di un documento correlato presentato questa settimana alla Conferenza sull'intelligenza artificiale, Etica e Società (AIES). "La rettifica di questi problemi è particolarmente importante poiché iniziamo a vedere questo tipo di algoritmi utilizzati nella sicurezza, forze dell'ordine e altri domini."
Amini afferma che il sistema del team sarebbe particolarmente rilevante per set di dati più grandi che sono troppo grandi per essere controllati manualmente e si estende anche ad altre applicazioni di visione artificiale oltre al rilevamento facciale.