Il software di riconoscimento facciale può produrre risultati estremamente imprecisi, secondo uno studio del governo degli Stati Uniti sulla tecnologia, che viene utilizzato per le forze dell'ordine, sicurezza aeroportuale e non solo
I sistemi di riconoscimento facciale possono produrre risultati estremamente imprecisi, soprattutto per i non bianchi, secondo uno studio del governo degli Stati Uniti pubblicato giovedì, è probabile che sollevi nuovi dubbi sull'implementazione della tecnologia di intelligenza artificiale.
Lo studio di dozzine di algoritmi di riconoscimento facciale ha mostrato tassi di "falsi positivi" per asiatici e afroamericani fino a 100 volte superiori a quelli per i bianchi.
I ricercatori del National Institute of Standards and Technology (NIST), un centro di ricerca governativo, ha anche scoperto che due algoritmi hanno assegnato il genere sbagliato alle femmine nere quasi il 35% delle volte.
Lo studio arriva in mezzo a un'ampia diffusione del riconoscimento facciale per le forze dell'ordine, aeroporti, sicurezza delle frontiere, bancario, vendita al dettaglio, scuole e per la tecnologia personale come sbloccare gli smartphone.
Alcuni attivisti e ricercatori hanno affermato che il potenziale di errori è troppo grande e che gli errori potrebbero portare all'incarcerazione di persone innocenti, e che la tecnologia potrebbe essere utilizzata per creare database che potrebbero essere violati o utilizzati in modo inappropriato.
Lo studio del NIST ha riscontrato sia "falsi positivi, "in cui un individuo viene erroneamente identificato, e "falsi negativi, "dove l'algoritmo non riesce a far corrispondere con precisione un volto a una persona specifica in un database.
"Un falso negativo potrebbe essere solo un inconveniente:non puoi entrare nel telefono, ma il problema di solito può essere risolto con un secondo tentativo, ", ha affermato il ricercatore capo Patrick Grother.
"Ma un falso positivo in una ricerca uno a molti mette una corrispondenza errata su un elenco di candidati che meritano un ulteriore esame".
Lo studio ha scoperto che i sistemi di riconoscimento facciale sviluppati negli Stati Uniti avevano tassi di errore più elevati per gli asiatici, gruppi di afroamericani e nativi americani, con la demografia degli indiani d'America che mostra i tassi più alti di falsi positivi.
Però, alcuni algoritmi sviluppati nei paesi asiatici hanno prodotto tassi di precisione simili per la corrispondenza tra volti asiatici e caucasici, il che, secondo i ricercatori, suggerisce che queste disparità possono essere corrette.
"Questi risultati sono un segno incoraggiante che dati di formazione più diversificati possono produrre risultati più equi, " Disse Grother.
Ciò nonostante, Jay Stanley dell'American Civil Liberties Union, che ha criticato la diffusione del riconoscimento facciale, ha affermato che il nuovo studio mostra che la tecnologia non è pronta per un'ampia distribuzione.
"Anche gli scienziati del governo stanno ora confermando che questa tecnologia di sorveglianza è imperfetta e distorta, "Stanley ha detto in una nota.
"Una falsa corrispondenza può portare a voli persi, lunghi interrogatori, posizionamenti in watchlist, scontri tesi con la polizia, falsi arresti o peggio. Ma i difetti della tecnologia sono solo una preoccupazione. La tecnologia di riconoscimento facciale, accurata o meno, può consentire di rilevare, persistente, e sorveglianza senza sospetti su una scala senza precedenti."
© 2019 AFP