• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • L'intelligenza artificiale ha un problema di pregiudizi di genere:basta chiedere a Siri

    Gli stereotipi sessisti si stanno manifestando nel mondo dell'intelligenza artificiale. Credito:yavi/Shutterstock

    Suggerisci all'assistente personale virtuale di Samsung Bixby "Parliamo sporco", e la voce femminile risponderà con un accento mieloso:"Non voglio finire sulla lista dei cattivi di Babbo Natale".

    Fai la stessa domanda alla voce maschile del programma e risponde "Ho letto che l'erosione del suolo è un vero problema di sporcizia".

    In Sud Africa, dove vivo e conduco le mie ricerche sui pregiudizi di genere nell'intelligenza artificiale, Samsung ora offre Bixby in varie voci a seconda della lingua scelta. Per l'inglese americano, c'è Giulia, Stefania, Lisa e Giovanni. Le voci di Giulia, Lisa e Stephanie sono civettuole e desiderose. John è intelligente e diretto.

    Assistenti personali virtuali, come Bixby, Alexa (Amazon), Siri (Apple) e Cortana (Microsoft) – sono all'avanguardia dell'intelligenza artificiale (AI) commerciabile. L'intelligenza artificiale si riferisce all'utilizzo di sistemi tecnologici per eseguire compiti che le persone di solito farebbero.

    Funzionano come un'applicazione su un dispositivo intelligente, rispondere ai comandi vocali attraverso l'elaborazione del linguaggio naturale. La loro ubiquità in tutto il mondo è in rapido aumento. Un recente rapporto dell'UNESCO ha stimato che già dal prossimo anno avremo più conversazioni con i nostri assistenti personali virtuali che con i nostri coniugi.

    Ancora, come ho esplorato nella mia ricerca con la dott.ssa Nora Ni Loideain dell'Information Law and Policy Centre dell'Università di Londra, queste tecnologie tradiscono pregiudizi di genere critici.

    Con i loro nomi femminili, voci e civetteria programmata, il design di assistenti personali virtuali riproduce stereotipi discriminatori di segretarie che, secondo lo stereotipo di genere, spesso è più di una semplice segretaria del suo capo maschile.

    Rafforza anche il ruolo delle donne come secondarie e sottomesse agli uomini. Questi assistenti AI operano su comando del loro utente. Non hanno il diritto di rifiutare questi comandi. Sono programmati solo per obbedire. Probabilmente, aumentano anche le aspettative su come dovrebbero comportarsi le donne reali.

    L'obiettivo di questi assistenti è anche quello di liberare il proprio utente da lavori umili come fissare appuntamenti e acquistare articoli online. Questo è problematico su almeno due fronti:suggerisce che l'utente ha più tempo per il lavoro presumibilmente più importante. In secondo luogo, fa una dichiarazione critica sul valore del tipo di lavoro di segreteria svolto, prima da donne vere e ora da donne digitalizzate, nel futuro digitale.

    "Cosa indossi?"

    Uno dei modi più evidenti in cui questi pregiudizi sono evidenti è l'uso di nomi femminili:Siri e Cortana, ad esempio. Siri è un nome nordico che significa "la bella donna che ti porta alla vittoria".

    Cortana prende il nome (così come la grafica e la voce) dalla serie di giochi Halo. nell'alone, Cortana è stata creata da un clone del cervello di una scienziata di successo sposata con un corpo femminile trasparente e altamente sessualizzato. Funziona come un aiutante immaginario per i giocatori con la sua intelligenza senza pretese e la sua forma ipnotizzante.

    Oltre alle loro voci femminili, tutti gli assistenti personali virtuali sul mercato oggi hanno una voce femminile predefinita, quale, come Bixby, è programmato per rispondere a tutti i tipi di domande e commenti suggestivi. Queste domande includono:"Cosa indossi?" La risposta di Siri è "Perché dovrei indossare qualcosa?"

    Alexa, nel frattempo, battute:"Non fanno vestiti per me"; e Cortana risponde, "Solo una piccola cosa che ho imparato in ingegneria."

    Bias e discriminazione nell'AI

    È sempre più riconosciuto che i sistemi di IA sono spesso distorti, in particolare lungo le linee di razza e di genere. Per esempio, il recente sviluppo dell'algoritmo di reclutamento da parte di Amazon per ordinare i curriculum per le domande di lavoro ha mostrato pregiudizi di genere declassando i curriculum che contenevano la parola "donne" o che contenevano riferimenti ai college femminili. Poiché l'algoritmo è stato addestrato su dati storici e sul reclutamento preferenziale di maschi, alla fine non poteva essere riparato e doveva essere abbandonato.

    Come ha dimostrato la ricerca, esiste un legame critico tra lo sviluppo di sistemi di intelligenza artificiale che mostrano pregiudizi di genere e la mancanza di donne nei team che li progettano.

    Ma c'è meno riconoscimento dei modi in cui i prodotti di intelligenza artificiale incorporano rappresentazioni stereotipate del genere all'interno del loro stesso design. Per l'intelligenza artificiale ora, un importante istituto di ricerca che studia l'impatto sociale dell'IA, esiste una chiara connessione tra l'industria dell'IA dominata dagli uomini e i sistemi e i prodotti discriminatori che produce.

    Il ruolo dei ricercatori è rendere visibili queste connessioni e mostrare i collegamenti critici tra le rappresentazioni delle donne, sia in prodotti culturali o tecnologici, e il trattamento delle donne nel mondo reale.

    L'intelligenza artificiale è la tecnologia leader nella cosiddetta quarta rivoluzione industriale. Si riferisce ai progressi tecnologici, dalla biotecnologia, all'intelligenza artificiale e ai big data, che stanno rapidamente rimodellando il mondo come lo conosciamo. Mentre il Sudafrica continua a impegnarsi con le promesse e le insidie ​​di ciò che questo contiene, diventerà sempre più importante considerare e affrontare il modo in cui le tecnologie che guidano questi cambiamenti possono influenzare le donne.

    Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com