• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • I ricercatori affermano che la tecnologia di rilevamento dei volti di Amazon mostra pregiudizi

    Credito:CC0 Dominio pubblico

    La tecnologia di rilevamento facciale che Amazon sta commercializzando per le forze dell'ordine spesso identifica erroneamente le donne, in particolare quelli con la pelle più scura, secondo i ricercatori del MIT e dell'Università di Toronto.

    I sostenitori della privacy e dei diritti civili hanno invitato Amazon a interrompere la commercializzazione del suo servizio Rekognition a causa delle preoccupazioni sulla discriminazione contro le minoranze. Alcuni investitori di Amazon hanno anche chiesto alla società di fermarsi per paura che rendesse Amazon vulnerabile alle azioni legali.

    I ricercatori hanno detto che nei loro test, La tecnologia di Amazon ha etichettato le donne dalla pelle più scura come uomini il 31% delle volte. Le donne dalla pelle più chiara sono state identificate erroneamente il 7% delle volte. Gli uomini dalla pelle più scura avevano un tasso di errore dell'1%, mentre gli uomini dalla pelle più chiara non ne avevano.

    L'intelligenza artificiale può imitare i pregiudizi dei loro creatori umani mentre si fanno strada nella vita di tutti i giorni. Il nuovo studio, rilasciato giovedì in tarda serata, mette in guardia contro il potenziale di abusi e minacce alla privacy e alle libertà civili derivanti dalla tecnologia di rilevamento facciale.

    legno opaco, direttore generale dell'intelligenza artificiale con l'unità di cloud computing di Amazon, ha affermato che lo studio utilizza una tecnologia di "analisi facciale" e non di "riconoscimento facciale". Wood ha affermato che l'analisi facciale "può individuare i volti nei video o nelle immagini e assegnare attributi generici come indossare gli occhiali; il riconoscimento è una tecnica diversa mediante la quale un singolo volto viene abbinato ai volti nei video e nelle immagini".

    In un post del venerdì sul sito web di Medium, La ricercatrice del MIT Media Lab Joy Buolamwini ha risposto che le aziende dovrebbero controllare tutti i sistemi che analizzano i volti umani per rilevare eventuali pregiudizi.

    "Se vendi un sistema che ha dimostrato di avere pregiudizi sui volti umani, è dubbio che anche gli altri prodotti a base di viso siano completamente privi di pregiudizi, " lei scrisse.

    La reazione di Amazon mostra che non sta prendendo sul serio le "preoccupazioni davvero gravi rivelate da questo studio, " disse Jacob Snow, un avvocato dell'American Civil Liberties Union.

    Buolamwini e Inioluwa Deborah Raji dell'Università di Toronto hanno affermato di aver studiato la tecnologia di Amazon perché l'azienda l'ha commercializzata alle forze dell'ordine. L'account LinkedIn di Raji dice che è attualmente una mentee di ricerca per l'intelligenza artificiale presso Google, che compete con Amazon nell'offerta di servizi di cloud computing.

    Buolamwini e Raji affermano che Microsoft e IBM hanno migliorato la loro tecnologia di riconoscimento facciale da quando i ricercatori hanno scoperto problemi simili in uno studio del maggio 2017. Il loro secondo studio, che includeva Amazon, è stato fatto nell'agosto 2018. Il loro documento sarà presentato lunedì a una conferenza sull'intelligenza artificiale a Honolulu.

    Wood ha affermato che Amazon ha aggiornato la sua tecnologia dopo lo studio e ha effettuato la propria analisi con "zero corrispondenze false positive".

    Il sito web di Amazon attribuisce a Rekognition il merito di aver aiutato l'ufficio dello sceriffo della contea di Washington in Oregon ad accelerare il tempo necessario per identificare i sospetti da centinaia di migliaia di foto.

    © 2019 The Associated Press. Tutti i diritti riservati.




    © Scienza https://it.scienceaq.com