Credito:Kirill_makarov/Shutterstock.com
Il dibattito sulla polizia che utilizza l'apprendimento automatico si sta intensificando, considerato in alcuni ambienti controverso quanto l'arresto e la perquisizione.
Stop and search è una delle aree più controverse del modo in cui la polizia interagisce con il pubblico. È stato pesantemente criticato per essere discriminatorio nei confronti dei gruppi etnici neri e minoritari, e per avere effetti marginali sulla riduzione della criminalità. Nello stesso modo, l'uso da parte della polizia di algoritmi di apprendimento automatico è stato condannato da gruppi per i diritti umani che affermano che tali programmi incoraggiano la profilazione razziale e la discriminazione insieme a minacciare la privacy e la libertà di espressione.
Ampiamente parlando, l'apprendimento automatico utilizza i dati per insegnare ai computer a prendere decisioni senza istruirli esplicitamente su come farlo. L'apprendimento automatico è utilizzato con successo in molti settori per creare efficienza, dare priorità al rischio e migliorare il processo decisionale.
Sebbene siano in una fase molto precoce, la polizia nel Regno Unito sta esplorando i vantaggi dell'utilizzo di metodi di apprendimento automatico per prevenire e rilevare il crimine, e per sviluppare nuove intuizioni per affrontare problemi di notevole interesse pubblico.
È vero che ci sono potenziali problemi con qualsiasi uso di algoritmi probabilistici di apprendimento automatico nella polizia. Ad esempio, quando si utilizzano dati storici, ci sono rischi che algoritmi, quando si fanno previsioni, discriminerà ingiustamente verso determinati gruppi di persone. Ma se la polizia affronta l'uso di questa tecnologia nel modo giusto, non dovrebbe essere controverso come fermare e perquisire e potrebbe fare molto perché la polizia sia più efficace nella prevenzione e nella risoluzione dei crimini.
Una sfida di polizia moderna
Considera il caso della recente preoccupazione del pubblico per i video musicali di esercitazione e il loro contenuto lirico unico presumibilmente utilizzato per ispirare, incitare e glorificare la violenza grave.
La musica del trapano ha, negli ultimi anni, diffuso nelle principali città del Regno Unito. Le piattaforme di social media come YouTube e Instagram hanno, allo stesso tempo, assistito a un aumento significativo dei video musicali di esercitazione caricati online. Molti dei video, che presentano rapper maschi che indossano maschere per il viso, usando la violenza, linguaggio provocatorio e nichilista, ricevere milioni di visualizzazioni.
L'ufficiale di polizia più anziano del Regno Unito, Commissario Cressida Dick, ha criticato pubblicamente i video musicali di esercitazione, affermando che sono usati per esaltare l'omicidio e la violenza grave e aumentare le tensioni tra bande di strada rivali.
Molte persone non sono d'accordo con la polizia che incolpa la musica di esercitazione. I sostenitori di questo genere musicale sostengono che l'omicidio e la violenza non sono un fenomeno nuovo, e non dovrebbe essere considerato causale per addestrare artisti che rappano sulla dura realtà delle loro esperienze vissute. Alcuni accademici sono anche preoccupati che l'attuale approccio della polizia "sta portando alla criminalizzazione delle attività quotidiane" e che "i giovani provenienti da ambienti poveri vengono ora classificati come piantagrane attraverso il semplice atto di realizzare un video musicale".
Tuttavia, alla polizia, questa è una questione importante:hanno la responsabilità legale di proteggere la vita e gestire i rischi per il pubblico. Come tale, rilevamento di contenuti online dannosi che, Per esempio, potrebbe contenere una minaccia per la vita di una persona, è sia un problema di polizia operativa contemporanea, e un problema tecnologico intrattabile che la polizia deve essere in grado di risolvere.
Sviluppo di strumenti di apprendimento automatico
Gli agenti di polizia visualizzano manualmente grandi quantità di video per identificare e distinguere i contenuti dannosi e criminali dall'espressione creativa legittima è estremamente inefficiente. Come tale, dovrebbe essere automatizzato. Sì, ci sono attualmente sfide tecniche significative per gli algoritmi di apprendimento automatico per comprendere tali contenuti lirici unici. Ma questo tipo di problema, per i ricercatori, si adatta perfettamente al crescente campo dell'apprendimento automatico dell'elaborazione del linguaggio naturale. Questo è un campo che utilizza tecniche computazionali per comprendere il linguaggio e la parola umani.
Più in generale, mancano ricerche sull'impatto sociale della polizia che utilizza l'apprendimento automatico per prevenire e rilevare il crimine. Quindi nel frattempo, per evitare controversie, la polizia non dovrebbe fare affidamento su modelli di apprendimento automatico "scatola nera" off-the-shelf che non sono stati testati in un contesto di polizia operativa per automatizzare l'analisi di grandi quantità di dati. I modelli della scatola nera sono giustamente controversi perché non mostrano la loro logica interna né i processi utilizzati per prendere le decisioni.
Un modo migliore per andare avanti è che la polizia lavori con esperti e costruisca modelli di apprendimento automatico progettati specificamente per scopi di polizia che facciano un uso migliore dei dati per affrontare i problemi, come quelli inerenti ai video musicali di drill. Polizia di Durham, Per esempio, hanno recentemente lavorato con scienziati dell'Università di Cambridge per sviluppare uno strumento algoritmico di valutazione del rischio per aiutare con le decisioni su futuri reati quando una persona viene arrestata dalla polizia.
In questo modo, gli strumenti di apprendimento automatico possono essere stabiliti su principi scientifici ampiamente accettati, con un livello di trasparenza che può essere utilizzato per galvanizzare il sostegno pubblico in modi che l'arresto e la ricerca non sono stati in grado di fare.
Preoccupazioni per la trasparenza
In un recente rapporto, il think tank britannico per la difesa e la sicurezza RUSI ha sollevato preoccupazioni più specifiche sul concetto di polizia che utilizza algoritmi di apprendimento automatico per fare previsioni e supportare il processo decisionale. In particolare, parla del concetto di "trasparenza algoritmica" e della difficoltà per i non esperti di comprendere come vengono utilizzati modelli statistici complessi per prendere decisioni.
Il rapporto sottolinea un punto importante:se l'apprendimento automatico viene utilizzato in qualsiasi forma di contesto della giustizia penale, i non esperti dovrebbero essere in grado di capire come sono state prese le decisioni e determinare se i risultati sono accurati ed equi.
Tutte le cose considerate, il preside della polizia che utilizza l'apprendimento automatico per identificare i rischi e supportare il processo decisionale, non è - e non dovrebbe - essere considerata come una nuova forma di totalitarismo che cerca di erodere i diritti democratici, impedire la libertà di parola, emarginare i gruppi etnici neri e minoritari.
Con l'aumento della criminalità nel Regno Unito che ora è il problema più significativo che deve affrontare il pubblico britannico dopo la Brexit, apprendimento automatico, all'interno di un'adeguata etica, quadro normativo e di fiducia pubblica, dovrebbe avere un posto nella cassetta degli attrezzi della polizia moderna per prevenire la criminalità e proteggere il pubblico.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.