• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Gli algoritmi di assunzione sono equi? Sono troppo opachi per dirlo, lo studio trova

    Credito:CC0 Dominio Pubblico

    Il tempo è denaro e, purtroppo per le aziende assumere nuovi dipendenti richiede molto tempo, in media più di un mese, la ricerca mostra.

    Le decisioni di assunzione sono anche piene di pregiudizi umani, portando alcune organizzazioni a trasferire almeno parte delle ricerche dei dipendenti a società tecnologiche esterne che selezionano i candidati con algoritmi di apprendimento automatico. Se gli umani hanno così difficoltà a trovare la soluzione migliore per le loro aziende, il pensiero va, forse una macchina può farlo meglio e in modo più efficiente.

    Ma una nuova ricerca di un team di studiosi di informatica e scienze dell'informazione presso la Cornell University solleva interrogativi su quegli algoritmi e le aziende tecnologiche che li sviluppano e li utilizzano:quanto è imparziale il processo di screening automatizzato? Come sono costruiti gli algoritmi? E da chi, verso quale fine, e con quali dati?

    Hanno scoperto che le aziende tendono a favorire l'oscurità rispetto alla trasparenza in questo campo emergente, dove la mancanza di consenso su punti fondamentali - definizioni formali di "pregiudizio" e "equità, " per cominciare:hanno consentito alle aziende tecnologiche di definire e affrontare i pregiudizi algoritmici alle proprie condizioni.

    "Penso che stiamo iniziando a vedere un crescente riconoscimento tra i creatori di strumenti decisionali algoritmici di cui hanno bisogno per essere particolarmente consapevoli di come i loro strumenti influenzano le persone, " disse Manish Raghavan, uno studente di dottorato in informatica e primo autore di "Mitigating Bias in Algorithmic Employment Screening:Evaluating Claims and Practices, " che sarà presentato a gennaio alla Association for Computing Machinery Conference on Fairness, Responsabilità e trasparenza.

    "Molti dei fornitori che abbiamo incontrato nel nostro lavoro riconoscono questo (impatto) e stanno adottando misure per affrontare pregiudizi e discriminazioni, " ha detto Raghavan. "Tuttavia, c'è una notevole mancanza di consenso o di direzione su come esattamente ciò dovrebbe essere fatto".

    I ricercatori hanno setacciato le informazioni pubbliche disponibili per iniziare a comprendere questi strumenti e quali misure, se del caso, le aziende hanno in atto per valutare e mitigare la distorsione algoritmica. Protetto dalle leggi sulla proprietà intellettuale, le aziende tecnologiche non devono divulgare alcuna informazione sui loro modelli algoritmici per gli screening pre-assunzione, anche se alcune aziende hanno scelto di offrire approfondimenti.

    I ricercatori si sono concentrati su 19 fornitori specializzati in screening algoritmici pre-assunzione, quale, hanno trovato, includere domande, analisi video interviste e giochi. Hanno setacciato i siti web delle aziende, webinar e qualsiasi documento disponibile per approfondimenti sui reclami e le pratiche dei fornitori.

    Pochissimi fornitori offrono informazioni concrete su come convalidano le loro valutazioni o rivelano specifiche su come mitigano i pregiudizi algoritmici, ricercatori hanno trovato.

    "Molti fornitori non menzionano gli sforzi per combattere i pregiudizi, il che è particolarmente preoccupante poiché o non ci stanno pensando affatto, o non sono trasparenti riguardo alle loro pratiche, " ha detto Raghavan.

    Anche se usano termini come "bias" e "equità, " questi possono essere vaghi. Un fornitore può affermare che il suo algoritmo di valutazione è "giusto" senza rivelare come l'azienda definisce l'equità.

    Sono come uova "ruspanti", Raghavan ha detto:Esiste una serie di condizioni in base alle quali le uova possono essere etichettate all'aperto, ma la nostra nozione intuitiva di intervallo libero potrebbe non corrispondere a tali condizioni.

    "Nello stesso modo, chiamare un algoritmo "giusto" fa appello alla nostra comprensione intuitiva del termine mentre ottiene solo un risultato molto più ristretto di quanto potremmo sperare, " Egli ha detto.

    Il team spera che il documento incoraggi la trasparenza e la conversazione su cosa significhi agire in modo etico in questo dominio delle valutazioni pre-assunzione attraverso l'apprendimento automatico.

    Date le sfide, potrebbe essere che gli algoritmi non siano all'altezza del lavoro di screening dei candidati? Non così in fretta, ha detto Raghavan.

    "Sappiamo da anni di prove empiriche che gli esseri umani soffrono di una varietà di pregiudizi quando si tratta di valutare i candidati all'impiego, " ha detto. "La vera domanda non è se gli algoritmi possono essere resi perfetti; Invece, il confronto rilevante è se possono migliorare rispetto a metodi alternativi, o in questo caso, lo status quo umano.

    "Nonostante i loro molti difetti, " Egli ha detto, "gli algoritmi hanno il potenziale per contribuire a una società più equa, ed è necessario ulteriore lavoro per garantire che possiamo comprendere e mitigare i pregiudizi che comportano".

    I coautori del documento sono Solon Barocas, professore assistente di scienze dell'informazione, attualmente presso Microsoft Research; Jon Kleinberg, Professore di Informatica della Tisch University e decano ad interim del CIS; e Karen Levy, assistente professore di scienze dell'informazione.


    © Scienza https://it.scienceaq.com