• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  Science >> Scienza >  >> Altro
    Gli algoritmi aiutano le persone a vedere e correggere i propri pregiudizi, lo dimostra uno studio

    Gli algoritmi potrebbero fungere da specchi per controllare i tuoi pregiudizi. Credito:dominio pubblico Unsplash/CC0

    Gli algoritmi sono un elemento fondamentale della vita moderna. Le persone si affidano alle raccomandazioni algoritmiche per sfogliare cataloghi approfonditi e trovare i migliori film, percorsi, informazioni, prodotti, persone e investimenti. Poiché le persone addestrano algoritmi in base alle loro decisioni, ad esempio algoritmi che forniscono consigli su siti di e-commerce e social media, gli algoritmi apprendono e codificano i pregiudizi umani.



    Le raccomandazioni algoritmiche mostrano pregiudizi verso le scelte popolari e le informazioni che suscitano indignazione, come le notizie partigiane. A livello sociale, i pregiudizi algoritmici perpetuano e amplificano i pregiudizi razziali strutturali nel sistema giudiziario, i pregiudizi di genere nelle persone che le aziende assumono e la disuguaglianza di ricchezza nello sviluppo urbano.

    Il bias algoritmico può essere utilizzato anche per ridurre il bias umano. Gli algoritmi possono rivelare pregiudizi strutturali nascosti nelle organizzazioni. In un articolo pubblicato negli Proceedings of the National Academy of Science , io e i miei colleghi abbiamo scoperto che i pregiudizi algoritmici possono aiutare le persone a riconoscere e correggere meglio i pregiudizi in se stessi.

    I pregiudizi allo specchio

    In nove esperimenti, Begum Celikitutan, Romain Cadario e io abbiamo chiesto ai partecipanti alla ricerca di valutare gli autisti di Uber o gli annunci di Airbnb in base alla loro abilità di guida, all'affidabilità o alla probabilità che affittassero l'annuncio. Abbiamo fornito ai partecipanti dettagli rilevanti, come il numero di viaggi che avevano effettuato, una descrizione della proprietà o una valutazione in stelle. Abbiamo incluso anche un'informazione distorta e irrilevante:una fotografia rivelava l'età, il sesso e l'attrattiva degli automobilisti oppure un nome che implicava che gli host dell'annuncio fossero bianchi o neri.

    Dopo che i partecipanti hanno espresso le loro valutazioni, abbiamo mostrato loro uno dei due riepiloghi delle valutazioni:uno che mostrava le proprie valutazioni o uno che mostrava le valutazioni di un algoritmo addestrato sulle loro valutazioni. Abbiamo parlato ai partecipanti della caratteristica di distorsione che potrebbe aver influenzato queste valutazioni; ad esempio, che gli ospiti di Airbnb hanno meno probabilità di affittare da host con nomi chiaramente afroamericani. Abbiamo quindi chiesto loro di giudicare quanta influenza ha avuto il bias sulle valutazioni nei riepiloghi.

    Indipendentemente dal fatto che i partecipanti valutassero l’influenza discriminante di razza, età, sesso o attrattiva, hanno riscontrato più distorsioni nelle valutazioni effettuate dagli algoritmi rispetto a loro stessi. Questo effetto specchio algoritmico si verificava sia che i partecipanti giudicassero le valutazioni di algoritmi reali sia che mostrassimo ai partecipanti le loro valutazioni e dicessimo loro in modo ingannevole che era un algoritmo a creare quelle valutazioni.

    L'autore descrive come gli algoritmi possono essere utili come specchio dei pregiudizi delle persone.

    I partecipanti hanno riscontrato più distorsioni nelle decisioni degli algoritmi che nelle loro stesse decisioni, anche quando abbiamo concesso ai partecipanti un bonus in denaro se i loro giudizi di parzialità corrispondevano ai giudizi espressi da un diverso partecipante che aveva visto le stesse decisioni. L'effetto specchio algoritmico persisteva anche se i partecipanti appartenevano alla categoria emarginata, ad esempio identificandosi come donna o come nero.

    I partecipanti alla ricerca sono stati in grado di vedere pregiudizi negli algoritmi addestrati sulle proprie decisioni così come erano in grado di vedere pregiudizi nelle decisioni di altre persone. Inoltre, i partecipanti erano più propensi a vedere l’influenza dei pregiudizi razziali nelle decisioni degli algoritmi che nelle proprie decisioni, ma erano ugualmente propensi a vedere l’influenza di caratteristiche difendibili, come le valutazioni in stelle, sulle decisioni degli algoritmi e sulle proprie decisioni. decisioni.

    Punto cieco bias

    Le persone vedono più pregiudizi negli algoritmi perché gli algoritmi rimuovono i punti ciechi dei pregiudizi delle persone. È più facile vedere i pregiudizi nelle decisioni degli altri che nelle tue perché utilizzi prove diverse per valutarle.

    Quando esamini le tue decisioni per individuare eventuali pregiudizi, cerchi prove di pregiudizi consapevoli, indipendentemente dal fatto che tu abbia pensato alla razza, al sesso, all'età, allo status o ad altre caratteristiche ingiustificate al momento della decisione. Trascuri e scusi i pregiudizi nelle tue decisioni perché non hai accesso al meccanismo associativo che guida i tuoi giudizi intuitivi, dove spesso entrano in gioco i pregiudizi. Potresti pensare:"Non ho pensato alla loro razza o al loro sesso quando li ho assunti. Li ho assunti solo in base al merito".

    Quando si esaminano le decisioni degli altri per individuare eventuali pregiudizi, non si ha accesso ai processi utilizzati per prendere le decisioni. Quindi esamini le loro decisioni per individuare eventuali pregiudizi, laddove i pregiudizi sono evidenti e più difficili da giustificare. Potresti vedere, ad esempio, che assumevano solo uomini bianchi.

    Gli algoritmi rimuovono il punto cieco dei pregiudizi perché vedi gli algoritmi più come vedi le altre persone che te stesso. I processi decisionali degli algoritmi sono una scatola nera, simile a come i pensieri degli altri ti sono inaccessibili.

    Spiegazione del punto cieco dei pregiudizi.

    I partecipanti al nostro studio che avevano maggiori probabilità di dimostrare il punto cieco dei pregiudizi avevano maggiori probabilità di vedere più pregiudizi nelle decisioni degli algoritmi che nelle proprie decisioni.

    Le persone esternano anche i pregiudizi negli algoritmi. Vedere i pregiudizi negli algoritmi è meno minaccioso che vedere i pregiudizi in te stesso, anche quando gli algoritmi sono addestrati alle tue scelte. Le persone danno la colpa agli algoritmi. Gli algoritmi vengono addestrati in base alle decisioni umane, ma le persone chiamano il pregiudizio riflesso "pregiudizio algoritmico".

    Lente correttiva

    I nostri esperimenti mostrano che le persone hanno anche maggiori probabilità di correggere i propri pregiudizi quando questi si riflettono negli algoritmi. In un esperimento finale, abbiamo dato ai partecipanti la possibilità di correggere le valutazioni che avevano valutato. Abbiamo mostrato a ciascun partecipante le proprie valutazioni, che abbiamo attribuito al partecipante o a un algoritmo addestrato sulle sue decisioni.

    I partecipanti erano più propensi a correggere le valutazioni quando venivano attribuite a un algoritmo perché credevano che le valutazioni fossero più distorte. Di conseguenza, le valutazioni finali corrette erano meno distorte quando venivano attribuite a un algoritmo.

    I bias algoritmici che hanno effetti dannosi sono stati ben documentati. I nostri risultati mostrano che il bias algoritmico può essere sfruttato a fin di bene. Il primo passo per correggere i bias è riconoscerne l’influenza e la direzione. Come specchi che rivelano i nostri pregiudizi, gli algoritmi possono migliorare il nostro processo decisionale.

    Informazioni sul giornale: Atti dell'Accademia Nazionale delle Scienze

    Fornito da The Conversation

    Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com