• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  science >> Scienza >  >> Altro
    L'evidenza rivela che gli algoritmi di valutazione del rischio mostrano pregiudizi nei confronti della popolazione ispanica

    Credito:CC0 Dominio Pubblico

    La valutazione automatizzata del rischio è diventata sempre più popolare nel sistema di giustizia penale, ma un nuovo studio pubblicato in Revisione del diritto penale americano valutata la precisione, validità e capacità predittiva di uno strumento di algoritmo di valutazione del rischio per rivelare l'ingiustizia algoritmica nei confronti degli ispanici.

    La valutazione del rischio può essere un modo oggettivo per ridurre i tassi di reclusione senza mettere a repentaglio la sicurezza pubblica, e i funzionari della giustizia penale fanno sempre più affidamento sull'elaborazione algoritmica per informare le decisioni sulla gestione dei trasgressori in base ai loro profili di rischio. Però, ci sono prove allarmanti che suggeriscono che gli algoritmi di rischio sono potenzialmente distorti nei confronti dei gruppi minoritari.

    Reader in Law and Criminal Justice presso l'Università del Surrey, la dott.ssa Melissa Hamilton ha utilizzato un ampio set di dati di imputati prima del processo che sono stati valutati su COMPAS, uno strumento di valutazione del rischio algoritmico ampiamente utilizzato, subito dopo i loro arresti per valutare l'impatto di questo algoritmico strumento specifico sul gruppo di minoranza ispanica.

    Il Dr. Hamilton ha dichiarato:"C'è un equivoco sul fatto che gli strumenti algoritmici di valutazione del rischio sviluppati utilizzando i big data rappresentino automaticamente un metodo coerente e logico per la classificazione dei trasgressori. La mia ricerca suggerisce che gli strumenti di rischio possono fornire risultati disuguali per i gruppi di minoranza se non prendono in considerazione le loro differenze culturali. Il bias si verifica quando gli strumenti di rischio sono normati in gran parte su un gruppo, per esempio campioni bianchi, in quanto forniscono previsioni imprecise per i gruppi minoritari.

    "Evidenze cumulative hanno mostrato che COMPAS ha mostrato costantemente risultati algoritmici ingiusti e distorti per quelli di etnia ispanica, con statistiche che presentano validità differenziale e capacità predittiva differenziale. Lo strumento non riesce a prevedere con precisione i risultati effettivi, successivamente sovrastimare il livello di rischio di recidiva per gli imputati ispanici prima del processo".

    Sebbene ci siano stati notevoli progressi nelle scienze comportamentali, la disponibilità di big data e modelli statistici, i funzionari della giustizia dovrebbero essere consapevoli che è necessaria una maggiore attenzione per garantire che vengano condotti studi di convalida adeguati prima dell'uso di uno strumento di rischio algoritmico, per confermare che è equo per la popolazione e le sottopopolazioni previste.


    © Scienza https://it.scienceaq.com