• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • I ricercatori di IA migliorano il metodo per rimuovere i pregiudizi di genere nelle macchine costruite per comprendere e rispondere a dati di testo o vocali

    Credito:Pixabay/CC0 di dominio pubblico

    I ricercatori hanno trovato un modo migliore per ridurre i pregiudizi di genere nei modelli di elaborazione del linguaggio naturale preservando al contempo le informazioni vitali sui significati delle parole, secondo un recente studio che potrebbe essere un passo fondamentale per affrontare il problema dei pregiudizi umani che si insinuano nell'intelligenza artificiale.

    Sebbene un computer stesso sia una macchina imparziale, gran parte dei dati e della programmazione che scorre attraverso i computer sono generati dagli esseri umani. Questo può essere un problema quando i pregiudizi umani consci o inconsci finiscono per riflettersi negli esempi di testo che i modelli di intelligenza artificiale utilizzano per analizzare e "capire" il linguaggio.

    I computer non sono immediatamente in grado di capire il testo, spiega Lei Ding, prima autrice dello studio e dottoranda al Dipartimento di Scienze Matematiche e Statistiche. Hanno bisogno che le parole vengano convertite in un insieme di numeri per capirle, un processo chiamato incorporamento di parole.

    "L'elaborazione del linguaggio naturale consiste essenzialmente nell'insegnare ai computer a comprendere testi e lingue", afferma Bei Jiang, professore associato presso il Dipartimento di scienze matematiche e statistiche.

    Una volta che i ricercatori fanno questo passaggio, sono in grado di tracciare le parole come numeri su un grafico 2D e visualizzare le relazioni tra le parole. Ciò consente loro di comprendere meglio l'entità del pregiudizio di genere e, successivamente, di determinare se il pregiudizio è stato effettivamente eliminato.

    Tutto il significato, nessun pregiudizio

    Sebbene altri tentativi di ridurre o rimuovere i pregiudizi di genere nei testi abbiano avuto successo in una certa misura, il problema con questi approcci è che il pregiudizio di genere non è l'unica cosa rimossa dai testi.

    "In molti metodi di debiasing di genere, quando riducono la distorsione in un vettore di parole, riducono o eliminano anche informazioni importanti sulla parola", spiega Jiang. Questo tipo di informazioni è noto come informazione semantica e offre importanti dati contestuali che potrebbero essere necessari in attività future che coinvolgono tali incorporamenti di parole.

    Ad esempio, quando si considera una parola come "infermiera", i ricercatori vogliono che il sistema rimuova qualsiasi informazione di genere associata a quel termine conservando comunque le informazioni che la collegano a parole correlate come medico, ospedale e medicina.

    "Dobbiamo preservare queste informazioni semantiche", afferma Ding. "Senza di esso, gli incorporamenti avrebbero prestazioni pessime [nelle attività e nei sistemi di elaborazione del linguaggio naturale]."

    Veloce, preciso e corretto

    La nuova metodologia ha anche superato i principali metodi di debiasing in varie attività valutate in base all'incorporamento di parole.

    Man mano che viene perfezionata, la metodologia potrebbe offrire un quadro flessibile che altri ricercatori potrebbero applicare alle proprie incorporazioni di parole. Finché un ricercatore ha una guida sul giusto gruppo di parole da usare, la metodologia potrebbe essere utilizzata per ridurre i pregiudizi legati a un particolare gruppo.

    Sebbene in questa fase la metodologia richieda ancora il contributo dei ricercatori, Ding spiega che in futuro potrebbe essere possibile disporre di una sorta di sistema o filtro integrato in grado di rimuovere automaticamente i pregiudizi di genere in una varietà di contesti.

    Pubblicato negli Atti della Conferenza AAAI sull'Intelligenza Artificiale , la nuova metodologia fa parte di un progetto più ampio, intitolato BIAS:Responsible AI for Gender and Ethnic Labour Market Equality, che sta cercando di risolvere i problemi del mondo reale.

    Ad esempio, le persone che leggono lo stesso annuncio di lavoro possono rispondere in modo diverso a particolari parole nella descrizione che spesso hanno un'associazione di genere. Un sistema che utilizza la metodologia creata da Ding e dai suoi collaboratori sarebbe in grado di contrassegnare le parole che potrebbero cambiare la percezione del lavoro da parte di un potenziale candidato o la decisione di candidarsi a causa del pregiudizio di genere percepito e suggerire parole alternative per ridurre questo pregiudizio.

    Sebbene molti modelli e sistemi di intelligenza artificiale siano incentrati sulla ricerca di modi per eseguire attività con maggiore velocità e precisione, Ding osserva che il lavoro del team fa parte di un campo in crescita che cerca di fare progressi riguardo a un altro aspetto importante di questi modelli e sistemi.

    "Le persone si stanno concentrando maggiormente sulla responsabilità e l'equità all'interno dei sistemi di intelligenza artificiale". + Esplora ulteriormente

    Google si muove per limitare i pregiudizi di genere nella traduzione




    © Scienza https://it.scienceaq.com