Credito:Pixabay/CC0 Dominio pubblico
I pregiudizi di genere umano che limitano le opportunità di reclutamento per le donne sono imitati e esacerbati dall'intelligenza artificiale (AI) utilizzata per l'ordinamento dei curricula, secondo nuove ricerche.
Lo studio, commissionato da UniBank, ha analizzato come ha reagito un panel di 40 reclutatori umani quando sono stati presentati gli stessi identici curricula con lo scambio di genere maschile e femminile. Il processo è stato quindi applicato a diversi algoritmi di assunzione per vedere se l'IA replicava i pregiudizi umani.
La ricerca ha scoperto che il panel di reclutamento umano ha dimostrato gli esempi più forti di pregiudizi non intenzionali, preferendo costantemente i curricula dei candidati maschi agli equivalenti femminili.
Coautore del rapporto e ricercatore di politiche di genere del Policy Lab di Ateneo, La professoressa associata Leah Ruppanner ha affermato che sappiamo che più donne che uomini hanno perso il lavoro durante la pandemia.
"Sfortunatamente, per ruoli dati e finanza, i curricula delle donne sono stati classificati più in basso degli uomini dai nostri relatori umani sebbene avessero le stesse qualifiche ed esperienza, " Disse il professor Ruppanner.
Coautore del rapporto e ricercatore di etica digitale del Centro per l'intelligenza artificiale e l'etica digitale (CAIDE), Il Dr. Marc Cheong ha affermato che gli algoritmi sono stati poi sviluppati dai ricercatori per replicare le preferenze del pannello umano.
La ricerca ha mostrato che anche gli algoritmi di base potrebbero imitare il pregiudizio di genere umano subconscio senza tenere conto dei meriti di un candidato.
"Anche quando i nomi dei candidati sono stati rimossi, AI ha valutato i curricula in base a modelli di assunzione storici in cui le preferenze erano orientate verso candidati di sesso maschile. Per esempio, dare un vantaggio a candidati con anni di servizio continuativo svantaggierebbe automaticamente le donne che hanno preso una pausa dal lavoro per responsabilità di cura, " ha detto il dottor Cheong.
"Anche, nel caso di IA più avanzate che operano all'interno di una "scatola nera" senza trasparenza o supervisione umana, c'è il pericolo che qualsiasi quantità di bias iniziale venga amplificata."
Direttore Generale di UniBank, Mike Lanz, detto come l'uso dell'intelligenza artificiale diventa più comune, è importante capire come i pregiudizi esistenti si stanno alimentando in modelli apparentemente imparziali.
"Dobbiamo fare attenzione a non invertire decenni di progressi verso l'indipendenza e la sicurezza finanziaria delle donne rafforzando atteggiamenti obsoleti riguardo al tipo di lavoro a cui le donne sono adatte, " Ha detto il signor Lanzing.
Il rapporto ha suggerito una serie di misure che potrebbero ridurre i pregiudizi in questi processi, compresi i programmi di formazione per i professionisti delle risorse umane e la creazione di algoritmi di assunzione trasparenti progettati per ridurre i pregiudizi di genere.