Il controverso programma di riconoscimento facciale di Amazon, Riconoscimento, identificato falsamente 28 membri del Congresso durante un test del programma da parte dell'American Civil Liberties Union, il gruppo per i diritti civili ha detto giovedì.
Nella sua prova, l'ACLU ha scansionato le foto di tutti i membri del Congresso e ha fatto in modo che il sistema le confrontasse con un database pubblico di 25, 000 foto segnaletiche.
Il gruppo ha utilizzato l'impostazione predefinita della "soglia di confidenza" dell'80% per Rekognition, il che significa che il test ha contato una corrispondenza facciale con una certezza dell'80% o più.
A quell'impostazione, il sistema ha erroneamente identificato 28 membri del Congresso, un numero sproporzionato dei quali erano persone di colore, etichettandoli invece come persone completamente diverse che sono state arrestate per un crimine.
I volti dei membri del Congresso utilizzati nel test includono repubblicani e democratici, uomini e donne e legislatori di tutte le età.
Amazon ha risposto che quando si utilizza il riconoscimento facciale per le attività delle forze dell'ordine, consiglia di impostare la soglia di confidenza al 95% o superiore.
Un portavoce di Amazon Web Services ha affermato in una dichiarazione che i risultati del test avrebbero potuto essere migliorati aumentando la soglia di confidenza. Mentre l'80% è una soglia accettabile per le foto di oggetti e oggetti di uso quotidiano, non è appropriato per identificare individui con un "ragionevole livello di certezza".
Nella sua relazione sui risultati, l'ACLU ha affermato che l'impostazione predefinita per il programma era dell'80% e che Amazon consiglia quel livello per la verifica dell'utente basata sul volto.
Lo strumento viene utilizzato per il riconoscimento facciale in arene al di fuori delle forze dell'ordine. Per esempio, durante il matrimonio reale del principe Harry e Meghan Markle a maggio, L'emittente britannica Sky News ha utilizzato Rekognition per identificare le celebrità mentre entravano nel Castello di Windsor.
Il software è stato utilizzato anche da Pinterest per abbinare immagini, dai negozi per tracciare le persone, per identificare contenuti online potenzialmente non sicuri o inappropriati e per trovare testo nelle immagini.
Privacy e polizia
Amazon è stata recentemente messa sotto accusa per aver venduto il servizio di riconoscimento facciale alle forze dell'ordine a causa delle preoccupazioni che potrebbe essere utilizzato per tenere traccia delle persone che svolgono la loro vita quotidiana, o alle proteste politiche o in altre situazioni in cui la maggior parte delle persone ora presume di essere anonime.
A causa di queste preoccupazioni, gruppi per i diritti civili, i sostenitori della privacy e persino alcuni dipendenti e azionisti di Amazon hanno chiesto al CEO Jeff Bezos di smettere di consentire alla polizia e alle agenzie federali di utilizzare la tecnologia di riconoscimento facciale.
I risultati del test dell'ACLU "dimostrano perché il Congresso dovrebbe unirsi all'ACLU nel chiedere una moratoria sull'uso da parte delle forze dell'ordine della sorveglianza facciale, " ha scritto Jacob Snow, un avvocato specializzato in tecnologia e libertà civili per l'ACLU della California settentrionale.
Due anni fa, Amazon ha creato lo strumento di riconoscimento facciale e del prodotto per consentire ai clienti di cercare rapidamente un database di immagini e cercare corrispondenze. Rekognition richiede che l'utente disponga di due serie di immagini. Il primo è generalmente un ampio database di individui conosciuti. L'utente quindi invia le immagini sui singoli che il software confronta con quelle nel database di grandi dimensioni per trovare ciò che crede siano corrispondenze.
Snow ha affermato che il prodotto è stato commercializzato "aggressivamente" alla polizia. Almeno due agenzie, uno a Orlando, Florida, e uno nella contea di Washington, Oregon, stanno testando Rekognition attualmente.
L'analista responsabile del programma della contea di Washington dice che non farebbe mai affidamento su un software di riconoscimento facciale per salire e parlare con un potenziale sospettato, tanto meno arrestarli.
Il dipartimento non fissa affatto una soglia di confidenza perché tutte le decisioni sono prese da esseri umani, ha detto Chris Adzima, l'analista senior dei sistemi informativi presso l'ufficio dello sceriffo della contea di Washington a Hillsboro, Oregon.
"Quando abbiamo un'immagine da un'indagine attiva, l'investigatore lo inserirà nel nostro sistema e il sistema sputerà i primi cinque risultati probabili. Quindi l'investigatore esaminerà quei cinque per determinare se qualcuno di questi sono possibili indizi, " Egli ha detto.
Anche allora, l'investigatore deve fare la dovuta diligenza, eseguire il nome per vedere se la persona aveva un record o un contatto noto con potenziali vittime.
Mentre Adzima ha affermato che la contea di Washington ha un buon successo nell'uso del riconoscimento facciale per aiutare a identificare le persone che alla fine sono state legate a crimini, "quasi nessuno di loro era al di sotto di una soglia di confidenza del 95%, " Egli ha detto.
La tecnologia di riconoscimento facciale è stata utilizzata con successo per identificare l'uomo arrestato per la sparatoria nella redazione di Capital Gazette a Baltimora, Maryland.
Ma l'ACLU e altri sostenitori della privacy affermano che la tecnologia è un'invasione della privacy. E dicono che potrebbe essere usato per prendere di mira e rintracciare immigrati o manifestanti.
A maggio, 34 gruppi per i diritti civili hanno inviato una lettera al CEO di Amazon Jeff Bezos, dicendo che le persone dovrebbero essere "libere di camminare per strada senza essere guardate dal governo".
Quello stesso mese, membri del Black Caucus del Congresso, ha anche inviato una lettera a Bezos, che si è detto preoccupato dalle "profonde conseguenze negative non intenzionali" che questa tecnologia potrebbe avere per gli afroamericani, immigrati irregolari e manifestanti.
"I "punti ciechi" basati sulla razza nell'intelligenza artificiale, soprattutto quelli che si manifestano nella tecnologia di riconoscimento facciale, sono stati ben documentati, " diceva la lettera.
Questi "punti ciechi" nell'intelligenza artificiale del riconoscimento facciale includono un incidente nel 2015 in cui un'applicazione fotografica di Google ha identificato le immagini di utenti afroamericani come "gorilla" e uno studio pubblicato all'inizio di quest'anno dal Massachusetts Institute of Technology che ha trovato un software di riconoscimento facciale, utilizzato per identificare il genere di una persona, ha avuto un tasso di errore dello 0,8 percento per gli uomini dalla pelle chiara e del 34,7 percento per le donne dalla pelle scura. Lo studio ha utilizzato tre diversi tipi di software di riconoscimento facciale commerciale.
Sei membri del Black Caucus del Congresso sono stati erroneamente identificati nel test di Rekognition dell'ACLU.
Reps. Jimmy Gomez (D-Calif.) e John Lewis (D-Ga.), che sono stati entrambi falsamente identificati durante il test, giovedì ha inviato una lettera a Bezos chiedendo di incontrarsi immediatamente per affrontare i "difetti" della tecnologia "al fine di prevenire risultati imprecisi".
©2018 USA Today
Distribuito da Tribune Content Agency, LLC.