• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Come possiamo assicurarci che gli algoritmi siano equi?

    Quando gli algoritmi prendono decisioni con conseguenze reali, devono essere onesti. Credito:R-Type/Shutterstock.com

    L'uso di macchine per aumentare l'attività umana non è una novità. I geroglifici egizi mostrano l'uso di carrozze trainate da cavalli anche prima del 300 a.C. L'antica letteratura indiana come "Silapadikaram" ha descritto gli animali usati per l'agricoltura. E uno sguardo fuori mostra che oggi le persone usano i veicoli a motore per spostarsi.

    Dove in passato gli esseri umani si sono potenziati in modi fisici, ora anche la natura dell'aumento è più intelligente. Ancora, tutto quello che bisogna fare è guardare alle auto:gli ingegneri sono apparentemente sulla cuspide delle auto a guida autonoma guidate dall'intelligenza artificiale. Altri dispositivi sono in varie fasi per diventare più intelligenti. Lungo la strada, le interazioni tra persone e macchine stanno cambiando.

    La macchina e le intelligenze umane mettono in campo diversi punti di forza. I ricercatori come me stanno lavorando per capire come gli algoritmi possono integrare le capacità umane riducendo al minimo le responsabilità derivanti dall'affidarsi all'intelligenza artificiale. In qualità di esperto di machine learning, Prevedo che presto ci sarà un nuovo equilibrio tra intelligenza umana e intelligenza artificiale, un cambiamento che l'umanità non ha mai incontrato prima.

    Tali cambiamenti spesso suscitano paura dell'ignoto, e in questo caso, una delle incognite è come le macchine prendono le decisioni. Questo è particolarmente vero quando si tratta di equità. Le macchine possono essere eque in un modo comprensibile alle persone?

    Quando le persone sono illogiche

    Per gli umani, l'equità è spesso al centro di una buona decisione. Il processo decisionale tende a fare affidamento sui centri emotivi e razionali del nostro cervello, quello che il premio Nobel Daniel Kahneman chiama il sistema 1 e il pensiero del sistema 2. I teorici delle decisioni credono che i centri emotivi del cervello siano stati abbastanza ben sviluppati nel corso dei secoli, mentre le aree del cervello coinvolte nel pensiero razionale o logico si sono evolute più recentemente. La parte razionale e logica del cervello, quello che Kahneman chiama Sistema 2, ha dato all'uomo un vantaggio rispetto ad altre specie.

    Però, perché il Sistema 2 è stato sviluppato più di recente, il processo decisionale umano è spesso bacato. Ecco perché molte decisioni sono illogiche, incoerente e non ottimale.

    Per esempio, l'inversione delle preferenze è un fenomeno ben noto ma illogico che le persone esibiscono:in esso, una persona che preferisce la scelta A a B e B a C non necessariamente preferisce A a C. Oppure si consideri che i ricercatori hanno scoperto che i giudici dei tribunali penali tendono ad essere più indulgenti con le decisioni sulla libertà vigilata subito dopo la pausa pranzo che alla fine della giornata.

    Parte del problema è che il nostro cervello ha difficoltà a calcolare con precisione le probabilità senza un addestramento appropriato. Usiamo spesso informazioni irrilevanti o siamo influenzati da fattori estranei. È qui che l'intelligenza artificiale può essere utile.

    Le macchine sono logiche... fino all'errore

    Un'intelligenza artificiale ben progettata può essere coerente e utile per prendere decisioni ottimali. Per loro natura, possono essere logici in senso matematico:semplicemente non si allontanano dalle istruzioni del programma. In un algoritmo di apprendimento automatico ben progettato, non si incontrerebbero le illogiche inversioni di preferenza che le persone spesso esibiscono, Per esempio. Entro margini di errori statistici, le decisioni dell'intelligenza artificiale sono coerenti.

    Il problema è che l'intelligenza della macchina non è sempre ben progettata.

    Man mano che gli algoritmi diventano più potenti e vengono incorporati in più parti della vita, gli scienziati come me si aspettano questo nuovo mondo, uno con un diverso equilibrio tra macchina e intelligenza umana, essere la norma del futuro.

    Nel sistema di giustizia penale, i giudici utilizzano algoritmi durante le decisioni sulla libertà vigilata per calcolare i rischi di recidiva. In teoria, questa pratica potrebbe superare qualsiasi pregiudizio introdotto dalle pause pranzo o dalla stanchezza a fine giornata. Eppure, quando i giornalisti di ProPublica hanno condotto un'indagine, hanno scoperto che questi algoritmi erano ingiusti:gli uomini bianchi con precedenti condanne per rapina a mano armata erano classificati come un rischio inferiore rispetto alle donne afroamericane condannate per reati minori.

    Ci sono molti altri esempi di algoritmi di apprendimento automatico che in seguito si sono rivelati ingiusti, tra cui Amazon e il suo reclutamento e l'etichettatura delle immagini di Google.

    I ricercatori sono stati consapevoli di questi problemi e hanno lavorato per imporre restrizioni che garantissero l'equità fin dall'inizio. Per esempio, un algoritmo chiamato CB (daltonico) impone la restrizione che eventuali variabili discriminanti, come razza o genere, non dovrebbe essere utilizzato per prevedere i risultati. Un altro, denominata DP (parità demografica), assicura che i gruppi siano proporzionalmente equi. In altre parole, la proporzione del gruppo che riceve un esito positivo è uguale o equa tra i gruppi discriminanti e non discriminatori.

    Ricercatori e responsabili politici stanno iniziando a prendere il mantello. IBM ha reso open source molti dei suoi algoritmi e li ha rilasciati sotto il banner "AI Fairness 360". E la National Science Foundation ha recentemente accettato le proposte di scienziati che vogliono rafforzare la base di ricerca che sostiene l'equità nell'intelligenza artificiale.

    Migliorare l'equità delle decisioni delle macchine

    Credo che gli algoritmi delle macchine eque esistenti siano deboli in molti modi. Questa debolezza spesso deriva dai criteri utilizzati per garantire l'equità. La maggior parte degli algoritmi che impongono "restrizioni di equità" come la parità demografica (DP) e il daltonismo (CB) si concentrano sull'assicurare l'equità a livello di risultato. Se ci sono due persone di sottopopolazioni diverse, le restrizioni imposte assicurano che l'esito delle loro decisioni sia coerente tra i gruppi.

    Anche se questo è un buon primo passo, i ricercatori devono guardare oltre i soli risultati e concentrarsi anche sul processo. Ad esempio, quando viene utilizzato un algoritmo, le sottopopolazioni colpite cambieranno naturalmente i loro sforzi in risposta. Questi cambiamenti devono essere presi in considerazione, pure. Perché non sono stati presi in considerazione, io e i miei colleghi ci concentriamo su ciò che chiamiamo "la migliore correttezza nella risposta".

    Se le sottopopolazioni sono intrinsecamente simili, anche il loro livello di sforzo per ottenere lo stesso risultato dovrebbe essere lo stesso anche dopo l'implementazione dell'algoritmo. Questa semplice definizione di migliore correttezza della risposta non è soddisfatta dagli algoritmi basati su DP e CB. Per esempio, DP richiede che i tassi positivi siano uguali anche se una delle sottopopolazioni non si impegna. In altre parole, le persone di una sottopopolazione dovrebbero lavorare molto di più per ottenere lo stesso risultato. Mentre un algoritmo basato su DP lo considererebbe equo, dopo tutto, entrambe le sottopopolazioni hanno ottenuto lo stesso risultato, la maggior parte degli umani no.

    Esiste un'altra restrizione di equità nota come probabilità equalizzata (EO) che soddisfa la nozione di migliore equità della risposta:garantisce l'equità anche se si tiene conto della risposta delle sottopopolazioni. Però, imporre la restrizione, l'algoritmo deve conoscere le variabili discriminanti (ad esempio, nero bianco), e finirà per impostare soglie esplicitamente diverse per le sottopopolazioni, quindi, le soglie saranno esplicitamente diverse per i candidati alla libertà vigilata bianchi e neri.

    Sebbene ciò aiuterebbe ad aumentare l'equità dei risultati, tale procedura può violare la nozione di parità di trattamento richiesta dal Civil Rights Act del 1964. Per questo motivo, un articolo della California Law Review ha esortato i responsabili delle politiche a modificare la legislazione in modo che gli algoritmi equi che utilizzino questo approccio possano essere utilizzati senza potenziali ripercussioni legali.

    Questi vincoli motivano me e i miei colleghi a sviluppare un algoritmo che non solo sia "la migliore risposta equa" ma non utilizzi esplicitamente variabili discriminanti. Dimostriamo le prestazioni dei nostri algoritmi teoricamente utilizzando set di dati simulati e set di dati di esempio reali dal web. Quando abbiamo testato i nostri algoritmi con i set di dati di esempio ampiamente utilizzati, siamo rimasti sorpresi dal modo in cui si sono comportati bene rispetto agli algoritmi open source assemblati da IBM.

    Il nostro lavoro suggerisce che, nonostante le difficoltà, le macchine e gli algoritmi continueranno ad essere utili agli esseri umani, sia per lavori fisici che per lavori di conoscenza. Dobbiamo rimanere vigili sul fatto che qualsiasi decisione presa dagli algoritmi sia equa, ed è imperativo che tutti comprendano i propri limiti. Se possiamo farlo, allora è possibile che l'intelligenza umana e quella della macchina si completino a vicenda in modi preziosi.

    Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com