Gli algoritmi aiutano le persone a vedere e correggere i propri pregiudizi, lo dimostra uno studio
Gli algoritmi sono un elemento fondamentale della vita moderna. Le persone si affidano alle raccomandazioni algoritmiche per sfogliare cataloghi approfonditi e trovare i migliori film, percorsi, informazioni, prodotti, persone e investimenti. Poiché le persone addestrano algoritmi in base alle loro decisioni, ad esempio algoritmi che forniscono consigli su siti di e-commerce e social media, gli algoritmi apprendono e codificano i pregiudizi umani.
Le raccomandazioni algoritmiche mostrano pregiudizi verso le scelte popolari e le informazioni che suscitano indignazione, come le notizie partigiane. A livello sociale, i pregiudizi algoritmici perpetuano e amplificano i pregiudizi razziali strutturali nel sistema giudiziario, i pregiudizi di genere nelle persone che le aziende assumono e la disuguaglianza di ricchezza nello sviluppo urbano.
Il bias algoritmico può essere utilizzato anche per ridurre il bias umano. Gli algoritmi possono rivelare pregiudizi strutturali nascosti nelle organizzazioni. In un articolo pubblicato negli Proceedings of the National Academy of Science , io e i miei colleghi abbiamo scoperto che i pregiudizi algoritmici possono aiutare le persone a riconoscere e correggere meglio i pregiudizi in se stessi.
I pregiudizi allo specchio
In nove esperimenti, Begum Celikitutan, Romain Cadario e io abbiamo chiesto ai partecipanti alla ricerca di valutare gli autisti di Uber o gli annunci di Airbnb in base alla loro abilità di guida, all'affidabilità o alla probabilità che affittassero l'annuncio. Abbiamo fornito ai partecipanti dettagli rilevanti, come il numero di viaggi che avevano effettuato, una descrizione della proprietà o una valutazione in stelle. Abbiamo incluso anche un'informazione distorta e irrilevante:una fotografia rivelava l'età, il sesso e l'attrattiva degli automobilisti oppure un nome che implicava che gli host dell'annuncio fossero bianchi o neri.
Dopo che i partecipanti hanno espresso le loro valutazioni, abbiamo mostrato loro uno dei due riepiloghi delle valutazioni:uno che mostrava le proprie valutazioni o uno che mostrava le valutazioni di un algoritmo addestrato sulle loro valutazioni. Abbiamo parlato ai partecipanti della caratteristica di distorsione che potrebbe aver influenzato queste valutazioni; ad esempio, che gli ospiti di Airbnb hanno meno probabilità di affittare da host con nomi chiaramente afroamericani. Abbiamo quindi chiesto loro di giudicare quanta influenza ha avuto il bias sulle valutazioni nei riepiloghi.
Indipendentemente dal fatto che i partecipanti valutassero l’influenza discriminante di razza, età, sesso o attrattiva, hanno riscontrato più distorsioni nelle valutazioni effettuate dagli algoritmi rispetto a loro stessi. Questo effetto specchio algoritmico si verificava sia che i partecipanti giudicassero le valutazioni di algoritmi reali sia che mostrassimo ai partecipanti le loro valutazioni e dicessimo loro in modo ingannevole che era un algoritmo a creare quelle valutazioni.
Informazioni sul giornale: Atti dell'Accademia Nazionale delle Scienze
Fornito da The Conversation
Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi l'articolo originale.