Credito:CC0 Dominio pubblico
In uno studio con implicazioni potenzialmente di vasta portata per la giustizia penale negli Stati Uniti, un team di ricercatori della California ha scoperto che gli algoritmi sono significativamente più accurati degli umani nel prevedere quali imputati verranno successivamente arrestati per un nuovo crimine.
Quando si valutano solo una manciata di variabili in un ambiente controllato, anche gli esseri umani non addestrati possono eguagliare l'abilità predittiva di sofisticati strumenti di valutazione del rischio, afferma il nuovo studio degli studiosi della Stanford University e dell'Università della California, Berkeley.
Ma le impostazioni della giustizia penale del mondo reale sono spesso molto più complesse, e quando un numero maggiore di fattori è utile per prevedere la recidiva, gli strumenti basati su algoritmi si sono comportati molto meglio delle persone. In alcuni test, gli strumenti si avvicinavano al 90% di accuratezza nel prevedere quali imputati potrebbero essere arrestati di nuovo, rispetto a circa il 60% per la previsione umana.
"La valutazione del rischio è stata a lungo una parte del processo decisionale nel sistema di giustizia penale, "ha detto Jennifer Skeem, uno psicologo specializzato in giustizia penale all'Università di Berkeley. "Sebbene il recente dibattito abbia sollevato importanti questioni sugli strumenti basati su algoritmi, la nostra ricerca mostra che in contesti che assomigliano a reali contesti di giustizia penale, le valutazioni del rischio sono spesso più accurate del giudizio umano nel predire la recidiva. Ciò è coerente con una lunga serie di ricerche che confrontano gli esseri umani con gli strumenti statistici".
"Gli strumenti di valutazione del rischio convalidati possono aiutare i professionisti della giustizia a prendere decisioni più informate, " disse Sharad Goel, uno scienziato sociale computazionale alla Stanford University. "Per esempio, questi strumenti possono aiutare i giudici a identificare e potenzialmente rilasciare persone che rappresentano un rischio minimo per la sicurezza pubblica. Ma, come tutti gli strumenti, gli strumenti di valutazione del rischio devono essere abbinati a una politica sana e al controllo umano per sostenere una riforma della giustizia penale equa ed efficace."
Il documento - "I limiti delle previsioni umane sulla recidiva" - era previsto per la pubblicazione il 14 febbraio. 2020, in Progressi scientifici . Skeem ha presentato la ricerca il 13 febbraio in una conferenza stampa al meeting annuale dell'American Association for the Advancement of Science (AAAS) a Seattle, Wash. Insieme a lei c'erano due coautori:Ph.D. laureato Jongbin Jung e Ph.D. candidato Zhiyuan "Jerry" Lin, che entrambi hanno studiato scienze sociali computazionali a Stanford.
I risultati della ricerca sono importanti poiché gli Stati Uniti discutono su come bilanciare i bisogni di sicurezza delle comunità riducendo al contempo i tassi di incarcerazione che sono i più alti di qualsiasi nazione al mondo e influenzano in modo sproporzionato gli afroamericani e le comunità di colore.
Se l'uso di strumenti avanzati di valutazione del rischio continua e migliora, che potrebbe perfezionare le decisioni di importanza critica che i professionisti della giustizia prendono quotidianamente:quali individui possono essere riabilitati nella comunità, piuttosto che in prigione? Che potrebbe finire nelle carceri di bassa sicurezza, e quali ai siti ad alta sicurezza? E quali prigionieri possono essere rilasciati in sicurezza alla comunità in libertà vigilata?
Gli strumenti di valutazione guidati da algoritmi sono ampiamente utilizzati negli Stati Uniti, in aree diverse come l'assistenza medica, ammissioni bancarie e universitarie. Sono stati a lungo utilizzati nella giustizia penale, aiutare i giudici e altri a pesare i dati nel prendere le loro decisioni.
Ma nel 2018 i ricercatori della Dartmouth University hanno sollevato dubbi sull'accuratezza di tali strumenti in un quadro di giustizia penale. In uno studio, hanno assemblato 1, 000 brevi vignette di imputati criminali, con informazioni tratte da una valutazione del rischio ampiamente utilizzata denominata Profilo di gestione del reato correttivo per sanzioni alternative (COMPAS).
Le vignette includevano ciascuna cinque fattori di rischio di recidiva:il sesso dell'individuo, età, attuale accusa penale, e il numero di precedenti reati per adulti e minorenni. I ricercatori hanno quindi utilizzato la piattaforma Mechanical Turk di Amazon per reclutare 400 volontari per leggere le vignette e valutare se ogni imputato avrebbe commesso un altro crimine entro due anni. Dopo aver esaminato ogni vignetta, ai volontari è stato detto se la loro valutazione prevedeva accuratamente la recidiva del soggetto.
Sia le persone che l'algoritmo erano accurati poco meno di due terzi delle volte.
Questi risultati, gli autori di Dartmouth hanno concluso, mettere in dubbio il valore degli strumenti di valutazione del rischio e di previsione algoritmica.
Lo studio ha generato una copertura di notizie di alto profilo e ha inviato un'ondata di dubbi attraverso la comunità della riforma della giustizia penale degli Stati Uniti. Se gli strumenti sofisticati non fossero migliori delle persone nel prevedere quali imputati potrebbero recidivare, alcuni dicevano, allora c'era poco senso nell'usare gli algoritmi, che potrebbe solo rafforzare il pregiudizio razziale nella sentenza. Alcuni sostenevano che decisioni così profonde dovrebbero essere prese dalle persone, non computer.
Alle prese con il "rumore" in decisioni complesse
Ma quando gli autori del nuovo studio californiano hanno valutato ulteriori set di dati e più fattori, hanno concluso che gli strumenti di valutazione del rischio possono essere molto più accurati delle persone nel valutare il potenziale di recidiva.
Lo studio ha replicato i risultati di Dartmouth basati su un numero limitato di fattori. Però, le informazioni disponibili in ambito giudiziario sono molto più ricche e spesso più ambigue.
"Rapporti di indagine pre-sentenza, dichiarazioni di impatto dell'avvocato e della vittima, e il comportamento di un individuo aggiunge complesso, incoerente, irrilevante al rischio, e informazioni potenzialmente distorte, " spiega il nuovo studio.
L'ipotesi degli autori:se le valutazioni della ricerca operano in un quadro del mondo reale, dove le informazioni relative al rischio sono complesse e "rumorose, " allora gli strumenti avanzati di valutazione del rischio sarebbero più efficaci degli umani nel prevedere quali criminali potrebbero recidivare.
Per verificare l'ipotesi, hanno ampliato il loro studio oltre COMPAS per includere altri set di dati. Oltre ai cinque fattori di rischio utilizzati nello studio di Dartmouth, ne hanno aggiunti altri 10, compreso lo stato di occupazione, uso di sostanze e salute mentale. Hanno anche ampliato la metodologia:a differenza dello studio di Dartmouth, in alcuni casi ai volontari non veniva detto dopo ogni valutazione se le loro previsioni erano accurate. Tale feedback non è disponibile per i giudici e altri nel sistema giudiziario.
Il risultato:gli esseri umani hanno ottenuto risultati "costantemente peggiori" rispetto allo strumento di valutazione del rischio su casi complessi quando non hanno avuto un feedback immediato per guidare le decisioni future.
Per esempio, il COMPAS prevedeva correttamente la recidiva l'89% delle volte, rispetto al 60% per gli esseri umani a cui non è stato fornito un feedback caso per caso sulle loro decisioni. Quando più fattori di rischio sono stati forniti e predittivi, un altro strumento di valutazione del rischio ha previsto con precisione la recidiva oltre l'80% delle volte, rispetto a meno del 60% per gli esseri umani.
I risultati sembrano supportare l'uso continuato e il miglioramento futuro degli algoritmi di valutazione del rischio. Ma, come ha notato Skeem, questi strumenti hanno in genere un ruolo di supporto. L'autorità ultima spetta ai giudici, ufficiali di sorveglianza, clinici, commissari per la libertà vigilata e altri che modellano le decisioni nel sistema di giustizia penale.