La tecnologia di riconoscimento facciale è controversa in molti paesi. Credito:Shutterstock
La tecnologia di riconoscimento facciale viene utilizzata per la prima volta in guerra. Potrebbe essere un punto di svolta in Ucraina, dove viene utilizzato per identificare i morti e riunire le famiglie. Ma se non riusciamo a confrontarci con l'etica di questa tecnologia ora, potremmo trovarci in un campo minato per i diritti umani.
Il Ministero della Difesa ucraino utilizza il software di riconoscimento facciale Clearview AI da marzo 2022 per creare un caso per crimini di guerra e identificare i morti, sia russi che ucraini. Il ministero della Trasformazione digitale in Ucraina ha affermato che sta utilizzando la tecnologia Clearview AI per dare ai russi la possibilità di sperimentare il "vero costo della guerra" e per far sapere alle famiglie che se vogliono ritrovare i corpi dei loro cari, sono " benvenuti a venire in Ucraina".
L'Ucraina ha libero accesso al software. Viene anche utilizzato ai posti di blocco e potrebbe aiutare a riunire i rifugiati con le loro famiglie.
Il contraccolpo della privacy
Il mese scorso, tuttavia, l'Ufficio del Commissario per le informazioni del Regno Unito (ICO) ha multato Clearview AI per oltre 7,5 milioni di sterline per aver raccolto immagini di persone nel Regno Unito e altrove dal Web e dai social media. È stato ordinato di eliminare le immagini e di interrompere l'ottenimento e l'utilizzo dei dati personali dei residenti nel Regno Unito disponibili pubblicamente su Internet. Originariamente l'ICO aveva dichiarato che intendeva multare Clearview AI £ 17 milioni.
Secondo l'ICO, dato l'enorme numero di utenti dei social media nel Regno Unito, è probabile che il database dei volti di Clearview AI contenga una quantità significativa di immagini raccolte senza consenso.
Un avvocato di Clearview, AI Lee Wolosky, ha dichiarato:"Sebbene apprezziamo il desiderio dell'ICO di ridurre la propria sanzione monetaria su Clearview AI, sosteniamo comunque la nostra posizione secondo cui la decisione di infliggere una sanzione non è corretta dal punto di vista legale. Clearview AI non è soggetto alla giurisdizione dell'ICO e Clearview AI non opera nel Regno Unito in questo momento."
Clearview AI ha dichiarato di volere 100 miliardi di immagini di volti nel suo database entro l'inizio del 2023, equivalenti a 14 per ogni persona sulla Terra. Più foto della stessa persona migliorano la precisione del sistema.
Secondo il sito Web di Clearview AI, la sua tecnologia di riconoscimento facciale aiuta le forze dell'ordine a contrastare la criminalità e consente alle aziende di trasporto, alle banche e ad altre società commerciali di rilevare furti, prevenire frodi e verificare le identità.
Buzzfeed ha riferito nel febbraio 2020 che diverse forze di polizia britanniche hanno precedentemente utilizzato Clearview AI. Un portavoce di Clearview AI ha affermato che la polizia nel Regno Unito non ha accesso alla sua tecnologia, mentre i portavoce sia della National Crime Agency che della polizia metropolitana non confermerebbero né negherebbero l'uso di strumenti o tecniche specifici. Tuttavia, nel marzo 2022 il College of Policing ha pubblicato una nuova guida per le forze di polizia del Regno Unito sull'uso del riconoscimento facciale in tempo reale.
Il governo del Regno Unito prevede di sostituire le leggi chiave sui diritti umani con una nuova Carta dei diritti moderna che potrebbe rendere difficile, se non impossibile, per le persone contestare le decisioni basate sulle prove dell'IA in tribunale, compreso il riconoscimento facciale.
Secondo il gruppo di difesa Liberty, è probabile che il disegno di legge abbia un impatto sproporzionato sulle comunità eccessivamente controllate, poiché creerebbe classi diverse di ricorrenti in base al loro comportamento passato.
Uno strumento di guerra
L'amministratore delegato di Clearview AI, Hoan Ton-That, ha affermato che il suo software di riconoscimento facciale ha consentito alle forze dell'ordine e ai funzionari governativi ucraini di archiviare oltre 2 miliardi di immagini da VKontakte, un servizio di social network russo. Hoan ha affermato che il software può aiutare i funzionari ucraini a identificare i soldati morti in modo più efficiente delle impronte digitali e funziona anche se il volto di un soldato è danneggiato.
Ma ci sono prove contrastanti sull'efficacia del software di riconoscimento facciale. Secondo il Dipartimento dell'Energia degli Stati Uniti, la decomposizione del volto di una persona può ridurre la precisione del software. D'altra parte, recenti ricerche scientifiche hanno dimostrato risultati relativi all'identificazione di persone morte simili o migliori della valutazione umana.
La ricerca suggerisce che le impronte digitali, le cartelle cliniche e il DNA sono ancora le tecniche di identificazione più affidabili. Ma sono strumenti per professionisti formati, mentre il riconoscimento facciale può essere utilizzato da non esperti.
Un altro problema segnalato dalla ricerca è che il riconoscimento facciale può accoppiare erroneamente due immagini o non abbinare le foto della stessa persona. In Ucraina, le conseguenze di qualsiasi potenziale errore con l'IA potrebbero essere disastrose. Un civile innocente potrebbe essere ucciso se viene erroneamente identificato come un soldato russo.
Una storia controversa
Nel 2016 Hoan ha iniziato a reclutare ingegneri informatici per creare l'algoritmo di Clearview AI. Ma è stato solo nel 2019 che la società americana di riconoscimento facciale ha iniziato a fornire discretamente il suo software alla polizia e alle forze dell'ordine statunitensi.
A gennaio 2020 il New York Times ha pubblicato la sua storia:"La società segreta che potrebbe porre fine alla privacy come la conosciamo". Questo articolo ha spinto più di 40 organizzazioni per i diritti civili e la tecnologia a inviare una lettera al Privacy and Civil Liberties Oversight Board e a quattro comitati del Congresso degli Stati Uniti, chiedendo la sospensione del software di riconoscimento facciale di Clearview AI.
Nel febbraio 2020, a seguito di una fuga di dati dall'elenco dei clienti di Clearview AI, BuzzFeed ha rivelato che il software di riconoscimento facciale di Clearview AI veniva utilizzato da individui in oltre 2.200 dipartimenti delle forze dell'ordine, agenzie governative e aziende in 27 paesi diversi.
Il 9 maggio 2022, Clearview AI ha accettato di interrompere la vendita dell'accesso al suo database dei volti a privati e aziende negli Stati Uniti, dopo che l'American Civil Liberties Union ha avviato una causa accusando Clearview AI di aver violato una legge sulla privacy dell'Illinois.
Negli ultimi due anni, le autorità per la protezione dei dati in Canada, Francia, Italia, Austria e Grecia hanno multato, indagato o vietato a Clearview AI di raccogliere immagini di persone.
Il futuro di Clearview AI nel Regno Unito è incerto. Lo scenario peggiore per la gente comune e le imprese sarebbe se il governo del Regno Unito non accettasse le preoccupazioni sollevate in risposta alla sua consultazione sulla Carta dei diritti moderna. Liberty ha avvertito di una potenziale "presa di potere" dei diritti umani.
Il miglior risultato, secondo me, sarebbe che il governo del Regno Unito abolisse i suoi piani per una moderna Carta dei diritti. Ciò significherebbe anche che i tribunali del Regno Unito dovrebbero continuare a tenere conto dei casi della Corte europea dei diritti dell'uomo come giurisprudenza.
A meno che non vengano adottate leggi che regolano l'uso del riconoscimento facciale, l'uso da parte della polizia di questa tecnologia rischia di violare i diritti alla privacy, la protezione dei dati e le leggi sull'uguaglianza.