Se un'immagine dipinge più di mille parole, il riconoscimento facciale ne dipinge due:è di parte.
Potresti ricordare alcuni anni fa che Google Foto etichettava automaticamente le immagini di persone di colore come "gorilla, " o Flickr (di proprietà di Yahoo all'epoca) facendo lo stesso e etichettando le persone come "scimmie" o "animali".
All'inizio di quest'anno, il New York Times riportato su uno studio di Joy Buolamwini, un ricercatore presso il MIT Media Lab, sull'intelligenza artificiale, algoritmi e pregiudizi:ha scoperto che il riconoscimento facciale è più accurato per gli uomini bianchi, e meno accurato per le persone dalla pelle più scura, soprattutto donne.
Ora, poiché il riconoscimento facciale viene preso in considerazione o viene utilizzato dalla polizia, aeroporti, funzionari dell'immigrazione e altri:Microsoft afferma di aver migliorato la sua tecnologia di riconoscimento facciale al punto da ridurre i tassi di errore per uomini e donne dalla pelle più scura fino a 20 volte. Solo per le donne, la società afferma di aver ridotto i tassi di errore di nove volte.
Microsoft ha apportato miglioramenti raccogliendo più dati ed espandendo e rivedendo i set di dati utilizzati per addestrare la sua intelligenza artificiale.
Da un recente post sul blog aziendale:"I tassi di errore più elevati sulle donne con la pelle più scura evidenziano una sfida a livello di settore:le tecnologie di intelligenza artificiale sono valide solo quanto i dati utilizzati per addestrarle. Se un sistema di riconoscimento facciale deve funzionare bene su tutte le persone, il set di dati di allenamento deve rappresentare una varietà di tonalità della pelle e fattori come l'acconciatura, gioielli e occhiali».
In altre parole, l'azienda che ci ha portato Tay, il chatbot pazzo di sesso e amante dei nazisti, vuole farci sapere che ci sta provando, sta davvero provando. (Potresti anche ricordare che Microsoft ha messo offline il suo esperimento di intelligenza artificiale Tay nel 2016 dopo che ha iniziato rapidamente a vomitare cose folli e razziste su Twitter, riflettendo le cose che ha imparato online. La società ha incolpato un "attacco coordinato di un sottoinsieme di persone" per la corruzione di Tay.)
Nelle notizie correlate, IBM ha annunciato che rilascerà il più grande set di dati facciali del mondo a tecnologi e ricercatori, per aiutare nello studio del bias. In realtà sta rilasciando due set di dati questo autunno:uno che ha più di 1 milione di immagini, e un altro che ha 36, 000 immagini facciali equamente distribuite per etnia, sesso ed età.
Big Blue ha anche affermato di aver migliorato il suo servizio di riconoscimento visivo Watson per l'analisi facciale, diminuendo il suo tasso di errore di quasi dieci volte, all'inizio di quest'anno.
"L'intelligenza artificiale ha un potere significativo per migliorare il modo in cui viviamo e lavoriamo, ma solo se i sistemi di IA vengono sviluppati e formati in modo responsabile, e produrre risultati di cui ci fidiamo, " IBM ha detto in un post sul blog. "Assicurarsi che il sistema sia addestrato su dati bilanciati, e liberati dai pregiudizi, è fondamentale per raggiungere tale fiducia".
©2018 The Mercury News (San Jose, California)
Distribuito da Tribune Content Agency, LLC.