• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • La tecnologia di lettura delle emozioni non supera il test del pregiudizio razziale

    Giocatori di basket Darren Collision (a sinistra) e Gordon Hayward (a destra). Credito:basket-reference.com

    La tecnologia di riconoscimento facciale è progredita fino al punto in cui ora interpreta le emozioni nelle espressioni facciali. Questo tipo di analisi è sempre più utilizzato nella vita quotidiana. Per esempio, le aziende possono utilizzare il software di riconoscimento facciale per aiutare nelle decisioni di assunzione. Altri programmi scansionano i volti in mezzo alla folla per identificare le minacce alla sicurezza pubblica.

    Sfortunatamente, questa tecnologia fatica a interpretare le emozioni dei volti neri. Il mio nuovo studio, pubblicato il mese scorso, mostra che la tecnologia di analisi emotiva assegna più emozioni negative ai volti degli uomini neri rispetto ai volti degli uomini bianchi.

    Questa non è la prima volta che i programmi di riconoscimento facciale hanno dimostrato di essere di parte. Google ha etichettato le facce nere come gorilla. Le telecamere hanno identificato i volti asiatici che lampeggiavano. I programmi di riconoscimento facciale hanno faticato a identificare correttamente il genere per le persone con la pelle più scura.

    Il mio lavoro contribuisce a una crescente chiamata a comprendere meglio il pregiudizio nascosto nel software di intelligenza artificiale.

    bias di misurazione

    Per esaminare il pregiudizio nei sistemi di riconoscimento facciale che analizzano le emozioni delle persone, Ho usato un set di dati di 400 foto di giocatori NBA della stagione 2016-2017, perché i giocatori sono simili nei loro vestiti, atletismo, età e sesso. Anche, trattandosi di ritratti professionali, i giocatori guardano la telecamera nella foto.

    Ho eseguito le immagini attraverso due noti tipi di software di riconoscimento emotivo. Entrambi hanno assegnato ai giocatori neri punteggi emotivi più negativi in ​​media, non importa quanto sorridessero.

    Credito:Grafico:La conversazione, CC-BY-ND Fonte:SSRN (2018)

    Per esempio, considera le foto ufficiali dell'NBA di Darren Collison e Gordon Hayward. Entrambi i giocatori sorridono, e, secondo il programma di riconoscimento e analisi facciale Face++, Darren Collison e Gordon Hayward hanno punteggi di sorriso simili:48,7 e 48,1 su 100, rispettivamente.

    Però, Face++ valuta l'espressione di Hayward come il 59,7 percento felice e lo 0,13 percento arrabbiato e l'espressione di Collison come il 39,2 percento felice e il 27 percento arrabbiato. Collison è visto tanto arrabbiato quanto felice e molto più arrabbiato di Hayward, nonostante lo stesso programma di riconoscimento facciale riconosca che entrambi i giocatori stanno sorridendo.

    In contrasto, L'API Face di Microsoft considerava entrambi gli uomini felici. Ancora, Collison è visto come meno felice di Hayward, con punteggi di felicità del 98 e del 93 percento, rispettivamente. Nonostante il suo sorriso, Collison è anche segnato con una piccola quantità di disprezzo, mentre Hayward non ne ha.

    In tutte le immagini NBA, lo stesso modello emerge. In media, Face++ valuta le facce nere due volte più arrabbiate delle facce bianche. Face API valuta i volti neri come tre volte più sprezzanti dei volti bianchi. Dopo aver abbinato i giocatori in base ai loro sorrisi, entrambi i programmi di analisi facciale hanno ancora maggiori probabilità di assegnare le emozioni negative di rabbia o disprezzo ai volti neri.

    Stereotipato da AI

    Il mio studio mostra che i programmi di riconoscimento facciale mostrano due distinti tipi di pregiudizi.

    Credito:Grafico:La conversazione, CC-BY-ND Fonte:SSRN (2018)

    Primo, le facce nere sono state costantemente classificate come più arrabbiate delle facce bianche per ogni sorriso. Face++ ha mostrato questo tipo di pregiudizio. Secondo, le facce nere venivano sempre classificate come più arrabbiate se c'era qualche ambiguità sulla loro espressione facciale. Face API ha mostrato questo tipo di disparità. Anche se i volti neri sono parzialmente sorridenti, la mia analisi ha mostrato che i sistemi assumevano più emozioni negative rispetto alle loro controparti bianche con espressioni simili. I punteggi emotivi medi erano molto più vicini tra le gare, ma c'erano ancora differenze evidenti per i volti in bianco e nero.

    Questa osservazione si allinea con altre ricerche, il che suggerisce che i professionisti di colore devono amplificare le emozioni positive per ricevere parità nelle loro valutazioni delle prestazioni sul posto di lavoro. Gli studi dimostrano che le persone percepiscono gli uomini di colore come più minacciosi fisicamente degli uomini bianchi, anche quando sono della stessa taglia.

    Alcuni ricercatori sostengono che la tecnologia di riconoscimento facciale sia più oggettiva degli umani. Ma il mio studio suggerisce che il riconoscimento facciale riflette gli stessi pregiudizi che hanno le persone. Le espressioni facciali degli uomini di colore sono segnate con le emozioni associate a comportamenti minacciosi più spesso degli uomini bianchi, anche quando sorridono. Ci sono buone ragioni per credere che l'uso del riconoscimento facciale possa formalizzare stereotipi preesistenti in algoritmi, integrandoli automaticamente nella vita di tutti i giorni.

    Fino a quando il riconoscimento facciale non valuterà i volti in bianco e nero in modo simile, i neri potrebbero aver bisogno di esagerare le loro espressioni facciali positive – essenzialmente sorridere di più – per ridurre l'ambiguità e le interpretazioni potenzialmente negative da parte della tecnologia.

    Sebbene innovativo, l'intelligenza artificiale può perpetrare ed esacerbare le dinamiche di potere esistenti, portando a un impatto disparato tra i gruppi razziali/etnici. Una certa responsabilità sociale è necessaria per garantire equità a tutti i gruppi perché il riconoscimento facciale, come la maggior parte dell'intelligenza artificiale, è spesso invisibile alle persone più colpite dalle sue decisioni.

    Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com