• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  science >> Scienza >  >> Altro
    Aiutare la polizia a prendere decisioni sulla custodia utilizzando l'intelligenza artificiale

    Credito:Rene Böhmer su Unsplash

    La polizia in "prima linea" nei giudizi difficili basati sul rischio sta sperimentando un sistema di intelligenza artificiale addestrato dai criminologi dell'Università di Cambridge per fornire indicazioni utilizzando i risultati di cinque anni di storie criminali.

    "Sono le 3 di sabato mattina. L'uomo davanti a te è stato sorpreso in possesso di droga. Non ha armi, e nessun record di crimini violenti o gravi. Lasci uscire l'uomo su cauzione la mattina dopo, o tenerlo rinchiuso per due giorni per assicurarsi che venga in tribunale lunedì?"

    Il tipo di scenario descritto dal dottor Geoffrey Barnes – se detenere un sospetto in custodia di polizia o rilasciarlo su cauzione – si verifica centinaia di migliaia di volte all'anno in tutto il Regno Unito. L'esito di questa decisione potrebbe essere importante per il sospettato, per la sicurezza pubblica e per la polizia.

    "Gli agenti di polizia che prendono queste decisioni di custodia sono di grande esperienza, " spiega Barnes. "Ma tutte le loro conoscenze e abilità di polizia non possono dire loro l'unica cosa di cui hanno più bisogno ora sul sospettato:quanto è probabile che lui o lei causi gravi danni se vengono rilasciati? Questo è un lavoro che spaventa davvero le persone:sono in prima linea nel processo decisionale basato sul rischio".

    Barnes e il professor Lawrence Sherman, che guida il Jerry Lee Center for Experimental Criminology presso l'Istituto di criminologia dell'Università di Cambridge, hanno lavorato con le forze di polizia di tutto il mondo per chiedere se l'intelligenza artificiale può essere d'aiuto.

    "Immaginate una situazione in cui l'ufficiale ha il vantaggio di centomila, e altro ancora, precedenti esperienze reali di decisioni di custodia?" dice Sherman. "Nessuno può avere un tale numero di esperienze, ma una macchina può."

    A metà 2016, con il finanziamento del Monument Trust, i ricercatori hanno installato il primo strumento di intelligenza artificiale al mondo per aiutare la polizia a prendere decisioni in materia di custodia a Durham Constabulary.

    Chiamato lo strumento di valutazione del rischio del danno (HART), la tecnologia basata sull'intelligenza artificiale utilizza 104, 000 storie di persone precedentemente arrestate e processate nelle suite di custodia di Durham nel corso di cinque anni, con un follow-up di due anni per ogni decisione di affidamento. Utilizzando un metodo chiamato "foreste casuali", il modello esamina un vasto numero di combinazioni di "valori predittori", la maggior parte dei quali si concentra sulla storia offensiva del sospettato, così come l'età, genere e area geografica.

    "Queste variabili vengono combinate in migliaia di modi diversi prima di raggiungere una conclusione prevista finale, " spiega Barnes. "Immagina un essere umano che tiene in testa questo numero di variabili, e fare tutte queste connessioni prima di prendere una decisione. Le nostre menti semplicemente non possono farlo."

    L'obiettivo di HART è di classificare se nei prossimi due anni un delinquente è ad alto rischio (altamente probabile che commetta un nuovo reato grave come omicidio, violenza aggravata, crimini sessuali o rapina); rischio moderato (potrebbe commettere un reato non grave); o a basso rischio (improbabile che commettano reati).

    "La necessità di una buona previsione non riguarda solo l'identificazione delle persone pericolose, " spiega Sherman. "Si tratta anche di identificare persone che sicuramente non sono pericolose. Per ogni caso di sospetto su cauzione che uccide qualcuno, ci sono decine di migliaia di sospetti non violenti che vengono rinchiusi più a lungo del necessario".

    La polizia di Durham vuole identificare il gruppo "a rischio moderato", che rappresenta poco meno della metà di tutti i sospetti secondo le statistiche generate da HART. Questi individui potrebbero trarre vantaggio dal loro programma Checkpoint, che mira ad affrontare le cause profonde dei reati e offrire un'alternativa all'azione penale che sperano trasformi i rischi moderati in rischi bassi.

    "Sono aghi e pagliai, " dice Sherman. "Da un lato, i pericolosi "aghi" sono troppo rari perché qualcuno possa incontrarli abbastanza spesso da individuarli a vista. Dall'altra, il "fieno" non rappresenta una minaccia e tenerli in custodia spreca risorse e può anche fare più male che bene." È attualmente in corso a Durham uno studio randomizzato controllato per testare l'uso di Checkpoint tra quelli previsti come rischio moderato.

    Anche HART viene aggiornato con dati più recenti, un passaggio che, spiega Barnes, sarà una parte importante di questo tipo di strumento:"Un decisore umano potrebbe adattarsi immediatamente a un contesto mutevole, come una priorità di determinati reati, come i crimini d'odio, ma non si può dire lo stesso di uno strumento algoritmico. Ciò suggerisce la necessità di un esame attento e costante dei predittori utilizzati e di aggiornare frequentemente l'algoritmo con dati storici più recenti".

    Nessuno strumento di previsione può essere perfetto. Uno studio di convalida indipendente di HART ha riscontrato un'accuratezza complessiva di circa il 63%. Ma, dice Barnes, il vero potere dell'apprendimento automatico non deriva dall'evitare alcun errore, ma dal decidere quali errori si desidera evitare di più.

    "Non tutti gli errori sono uguali, "dice Sheena Urwin, capo della giustizia penale presso Durham Constabulary e laureato del programma esecutivo di Master of Studies della polizia dell'Istituto di criminologia. "L'errore peggiore sarebbe se il modello prevedesse un basso e l'autore del reato risultasse alto".

    "In consultazione con la polizia di Durham, abbiamo costruito un sistema che è accurato al 98% nell'evitare questa forma di errore più pericolosa - il "falso negativo" - il trasgressore che si prevede sia relativamente al sicuro, ma poi va a commettere un grave reato violento, " aggiunge Barnes. "L'intelligenza artificiale è infinitamente regolabile e quando si costruisce uno strumento di intelligenza artificiale è importante valutare il percorso eticamente più appropriato da prendere".

    I ricercatori sottolineano anche che l'output di HART è solo indicativo, e che la decisione ultima spetta all'ufficiale di polizia incaricato.

    "HART utilizza i dati di Durham e quindi è rilevante solo per i reati commessi nella giurisdizione di Durham Constabulary. Questa limitazione è uno dei motivi per cui tali modelli dovrebbero essere considerati come un supporto per i decisori umani e non per sostituirli, " spiega Barnes. "Queste tecnologie non sono, di se stessi, proiettili d'argento per le forze dell'ordine, e non sono nemmeno sinistre macchinazioni di un cosiddetto stato di sorveglianza".

    Alcune decisioni, dice Sherman, hanno un impatto troppo grande sulla società e sul benessere degli individui perché possano essere influenzati da una tecnologia emergente.

    Laddove gli strumenti basati sull'intelligenza artificiale offrono grandi promesse, però, consiste nell'utilizzare la previsione del livello di rischio dei trasgressori per un efficace "triage", come descrive Sherman:"Il servizio di polizia è sotto pressione per fare di più con meno, indirizzare le risorse in modo più efficiente, e per proteggere il pubblico.

    "Lo strumento aiuta a identificare i pochi "aghi nel pagliaio" che rappresentano un grave pericolo per la comunità, e il cui rilascio dovrebbe essere soggetto a ulteriori livelli di revisione. Allo stesso tempo, una migliore valutazione può portare i delinquenti giusti a ricevere decisioni di rilascio che avvantaggiano sia loro che la società".


    © Scienza https://it.scienceaq.com