• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Il nuovo rapporto offre un progetto per la regolamentazione della tecnologia di riconoscimento facciale

    Credito:Pixabay/CC0 di dominio pubblico

    Un nuovo rapporto dell'Istituto di tecnologia umana dell'Università della tecnologia di Sydney (UTS) delinea una legge modello per la tecnologia di riconoscimento facciale per proteggere dall'uso dannoso di questa tecnologia, ma anche promuovere l'innovazione a beneficio pubblico.

    La legge australiana non è stata redatta pensando all'uso diffuso del riconoscimento facciale. Guidato dai professori del settore UTS Edward Santow e Nicholas Davis, il rapporto raccomanda una riforma per modernizzare la legge australiana, in particolare per affrontare le minacce alla privacy e ad altri diritti umani.

    Il riconoscimento facciale e altre tecnologie biometriche remote sono cresciute in modo esponenziale negli ultimi anni, sollevando preoccupazioni per la privacy, la sorveglianza di massa e l'ingiustizia vissuta, specialmente da persone di colore e donne, quando la tecnologia commette errori.

    Nel giugno 2022, un'indagine del gruppo di difesa dei consumatori CHOICE ha rivelato che diversi grandi rivenditori australiani stavano utilizzando il riconoscimento facciale per identificare i clienti che entravano nei loro negozi, provocando un notevole allarme della comunità e richieste di una migliore regolamentazione. Ci sono state anche richieste diffuse di riforma della legge sul riconoscimento facciale, in Australia ea livello internazionale.

    Questo nuovo rapporto risponde a queste chiamate. Riconosce che i nostri volti sono speciali, nel senso che gli esseri umani fanno molto affidamento sui volti degli altri per identificarsi e interagire. Questa dipendenza ci rende particolarmente vulnerabili alle restrizioni sui diritti umani quando questa tecnologia viene utilizzata in modo improprio o abusato.

    "Quando le applicazioni di riconoscimento facciale sono progettate e regolate bene, possono esserci vantaggi reali, aiutando a identificare le persone in modo efficiente e su larga scala. La tecnologia è ampiamente utilizzata da persone non vedenti o con problemi di vista, rendendo il mondo più accessibile per quei gruppi ", ha affermato il professor Santow, ex commissario australiano per i diritti umani e ora co-direttore dello Human Technology Institute.

    "Questo rapporto propone una legge modello basata sul rischio per il riconoscimento facciale. Il punto di partenza dovrebbe essere garantire che il riconoscimento facciale sia sviluppato e utilizzato in modi che sostengano i diritti umani fondamentali delle persone", ha affermato.

    "Le lacune nella nostra attuale legge hanno creato una sorta di fallimento normativo del mercato. Molte aziende rispettate si sono ritirate dall'offrire il riconoscimento facciale perché i consumatori non sono adeguatamente protetti. Quelle aziende che continuano a offrire in quest'area non sono tenute a concentrarsi sui diritti di base delle persone colpite da questa tecnologia", ha affermato il professor Davis, ex membro del comitato esecutivo del World Economic Forum di Ginevra e co-direttore dello Human Technology Institute.

    "Molte organizzazioni della società civile, enti governativi e intergovernativi ed esperti indipendenti hanno lanciato l'allarme sui pericoli associati agli usi attuali e previsti del riconoscimento facciale", ha affermato.

    Questo rapporto invita il procuratore generale australiano Mark Dreyfus a guidare un processo nazionale di riforma del riconoscimento facciale. Ciò dovrebbe iniziare con l'introduzione di un disegno di legge nel parlamento australiano basato sul modello di legge esposto nel rapporto.

    Il rapporto raccomanda inoltre di assegnare la responsabilità normativa all'Office of the Australian Information Commissioner per regolamentare lo sviluppo e l'uso di questa tecnologia nella giurisdizione federale, con un approccio armonizzato nelle giurisdizioni statali e territoriali.

    Il modello di legge stabilisce tre livelli di rischio per i diritti umani per le persone interessate dall'uso di una particolare applicazione tecnologica di riconoscimento facciale, nonché i rischi per la comunità più ampia.

    Secondo la legge modello, chiunque sviluppi o utilizzi una tecnologia di riconoscimento facciale deve prima valutare il livello di rischio per i diritti umani che si applicherebbe alla propria applicazione. Tale valutazione può quindi essere impugnata da membri del pubblico e dall'autorità di regolamentazione.

    Sulla base della valutazione del rischio, il modello di legge stabilisce quindi una serie cumulativa di requisiti legali, restrizioni e divieti.

    Il rapporto, Tecnologia di riconoscimento facciale:verso una legge modello, è stato co-autore del prof. Nicholas Davis, del prof. Edward Santow e Lauren Perry dello Human Technology Institute, UTS. + Esplora ulteriormente

    Oakland, in California, impedisce alla città di utilizzare la tecnologia di riconoscimento facciale




    © Scienza https://it.scienceaq.com