Credito:CC0 Dominio Pubblico
Un nuovo studio della New York University School of Law e dell'AI Now Institute della NYU conclude che i sistemi di polizia predittiva corrono il rischio di esacerbare la discriminazione nel sistema di giustizia penale se si basano su "dati sporchi".
Negli ultimi anni le forze dell'ordine sono state sottoposte a scrutinio per pratiche che comportano un'aggressione sproporzionata nei confronti di sospetti di minoranza, inducendo alcuni a chiedersi se la tecnologia, in particolare, software di polizia predittiva – potrebbe diminuire le azioni discriminatorie.
Però, un nuovo studio della New York University School of Law e dell'AI Now Institute della NYU conclude che i sistemi di polizia predittiva, infatti, corrono il rischio di esacerbare la discriminazione nel sistema di giustizia penale se si basano su "dati sporchi" - dati creati da difetti, di parte razziale, e talvolta pratiche illecite.
I ricercatori illustrano questo fenomeno con dati di casi di studio provenienti da Chicago, New Orleans, e la contea di Maricopa in Arizona. La loro carta, "Dati sporchi, Previsioni errate:come le violazioni dei diritti civili influiscono sui dati della polizia, Sistemi di polizia predittiva, e Giustizia, " è disponibile su SSRN.
"Abbiamo scelto questi siti perché abbiamo riscontrato una sovrapposizione tra prove ampiamente documentate di pratiche di polizia corrotte o illegali e un interesse significativo, sviluppo, e l'uso attuale o precedente di sistemi di polizia predittiva. Questo ci ha portato a esaminare i rischi che l'uno avrebbe influenzato l'altro, " spiega Jason Schultz, un professore di diritto clinico e uno dei coautori del documento.
Gli autori, che includono Rashida Richardson, direttore della ricerca politica presso l'AI Now Institute, e Kate Crawford, co-direttore dell'Istituto AI Now, identificato 13 giurisdizioni (compresi i casi di studio sopra menzionati) con casi documentati di pratiche di polizia illecite o tendenziose che hanno anche esplorato o implementato sistemi di polizia predittiva durante i periodi di attività illecita.
Il dipartimento di polizia di Chicago, Per esempio, era sotto indagine federale per pratiche illegali di polizia quando ha implementato un sistema computerizzato che identifica le persone a rischio di diventare vittime o delinquenti in una sparatoria o in un omicidio. Lo studio ha rivelato che la stessa fascia demografica di residenti che era stata identificata dal Dipartimento di Giustizia come bersagli del pregiudizio della polizia di Chicago si sovrapponeva a quelli che erano stati identificati dal sistema predittivo.
Altri esempi hanno mostrato rischi significativi di sovrapposizione, ma poiché l'uso da parte del governo di sistemi di polizia predittiva è spesso segreto e nascosto alla supervisione pubblica, l'entità dei rischi rimane sconosciuta, secondo lo studio.
"Nelle giurisdizioni che hanno storie ben consolidate di pratiche di polizia corrotte, esiste un rischio sostanziale che i dati generati da tali pratiche possano danneggiare i sistemi di calcolo predittivo. In tali circostanze, sono essenziali una forte supervisione pubblica e responsabilità, " ha detto Schultz.
L'autore principale Richardson ha aggiunto, "Anche se questo studio era limitato alle giurisdizioni con storie ben consolidate di cattiva condotta della polizia e pratiche discriminatorie della polizia, sappiamo che queste preoccupazioni sulle pratiche e le politiche di polizia non sono limitate a queste giurisdizioni, quindi è necessario un maggiore controllo sui dati utilizzati nelle tecnologie di polizia predittiva a livello globale".