Credito:Shutterstock
I sistemi di intelligenza artificiale (AI) stanno diventando ogni giorno più intelligenti, battendo i campioni del mondo in giochi come Go, identificare i tumori nelle scansioni mediche meglio dei radiologi umani, e aumentare l'efficienza dei data center affamati di elettricità. Alcuni economisti stanno confrontando il potenziale trasformativo dell'IA con altre "tecnologie per scopi generici" come il motore a vapore, elettricità o il transistor.
Ma gli attuali sistemi di intelligenza artificiale sono tutt'altro che perfetti. Tendono a riflettere i pregiudizi dei dati utilizzati per addestrarli e a rompersi quando si trovano ad affrontare situazioni impreviste. Possono essere giocati, come abbiamo visto con le polemiche sulla disinformazione sui social media, contenuti violenti pubblicati su YouTube, o il famoso caso di Tay, il chatbot di Microsoft, che è stato manipolato per fare dichiarazioni razziste e sessiste in poche ore.
Quindi vogliamo davvero trasformare questi soggetti inclini ai pregiudizi, tecnologie fragili nelle pietre miliari dell'economia di domani?
Ridurre al minimo il rischio
Un modo per ridurre al minimo i rischi dell'IA è aumentare la diversità dei team coinvolti nel loro sviluppo. Come suggerisce la ricerca sul processo decisionale collettivo e sulla creatività, i gruppi che sono cognitivamente più diversi tendono a prendere decisioni migliori. Sfortunatamente, questo è molto diverso dalla situazione nella comunità che sta attualmente sviluppando sistemi di intelligenza artificiale. E la mancanza di diversità di genere è una dimensione importante (sebbene non l'unica) di questo.
Una recensione pubblicata dall'AI Now Institute all'inizio di quest'anno, ha dimostrato che meno del 20% dei ricercatori che si candidano a prestigiose conferenze sull'IA sono donne, e che solo un quarto degli studenti universitari che studiano intelligenza artificiale a Stanford e all'Università della California a Berkeley sono donne.
Gli autori hanno sostenuto che questa mancanza di diversità di genere si traduce in fallimenti dell'IA che colpiscono in modo univoco le donne, come un sistema di reclutamento di Amazon che ha dimostrato di discriminare i candidati al lavoro con nomi femminili.
Il nostro recente rapporto, La diversità di genere nella ricerca sull'IA, ha coinvolto un'analisi dei "big data" di 1,5 milioni di articoli in arXiv, un sito Web di prestampa ampiamente utilizzato dalla comunità di intelligenza artificiale per diffondere il proprio lavoro.
Abbiamo analizzato il testo degli abstract per determinare quali tecniche di IA applicare, ha dedotto il genere degli autori dai loro nomi e ha studiato i livelli di diversità di genere nell'IA e la sua evoluzione nel tempo. Abbiamo anche confrontato la situazione in diversi campi di ricerca e paesi, e differenze di linguaggio tra articoli con coautori donne e articoli esclusivamente maschili.
La nostra analisi conferma l'idea che ci sia una crisi della diversità di genere nella ricerca sull'IA. Solo il 13,8% degli autori di IA in arXiv sono donne e, in termini relativi, la proporzione di articoli sull'intelligenza artificiale scritti da almeno una donna non è migliorata dagli anni '90.
Ci sono differenze significative tra paesi e campi di ricerca. Abbiamo riscontrato una maggiore rappresentanza delle donne nella ricerca sull'IA nei Paesi Bassi, Norvegia e Danimarca, e una minore rappresentanza in Giappone e Singapore. Abbiamo anche scoperto che le donne che lavorano in fisica, formazione scolastica, la biologia e gli aspetti sociali dell'informatica hanno maggiori probabilità di pubblicare lavori sull'intelligenza artificiale rispetto a quelli che lavorano in informatica o matematica.
Oltre a misurare la diversità di genere nella forza lavoro di ricerca sull'IA, abbiamo anche esplorato le differenze semantiche tra documenti di ricerca con e senza partecipazione femminile. Abbiamo testato l'ipotesi che i team di ricerca con una maggiore diversità di genere tendano ad aumentare la varietà di questioni e argomenti considerati nella ricerca sull'IA, potenzialmente rendendo i loro risultati più inclusivi.
Per fare questo, abbiamo misurato la "firma semantica" di ogni articolo utilizzando una tecnica di apprendimento automatico chiamata word embedding, e confrontato queste firme tra articoli con almeno un autore donna e articoli senza autori donna.
Questa analisi, che si concentra sul campo dell'apprendimento automatico e degli aspetti sociali dell'informatica nel Regno Unito, hanno mostrato differenze significative tra i gruppi. In particolare, abbiamo scoperto che gli articoli con almeno una coautrice donna tendono ad essere più applicati e socialmente consapevoli, con termini come "equità", "mobilità umana", "mentale", "Salute", "genere" e "personalità" giocano un ruolo chiave. La differenza tra i due gruppi è coerente con l'idea che la diversità cognitiva abbia un impatto sulla ricerca prodotta, e suggerisce che porta a un maggiore coinvolgimento con le questioni sociali.
Come sistemarlo
Quindi cosa spiega questo persistente divario di genere nella ricerca sull'intelligenza artificiale, e cosa possiamo fare al riguardo?
La ricerca mostra che la mancanza di diversità di genere nella scienza, tecnologia, La forza lavoro in ingegneria e matematica (STEM) non è causata da un singolo fattore:stereotipi di genere e discriminazione, una mancanza di modelli di ruolo e mentori, scarsa attenzione all'equilibrio tra lavoro e vita privata, e ambienti di lavoro "tossici" nell'industria tecnologica si uniscono per creare una tempesta perfetta contro l'inclusione di genere.
Non esiste una soluzione semplice per colmare il divario di genere nella ricerca sull'intelligenza artificiale. Cambiamenti a livello di sistema volti a creare spazi sicuri e inclusivi che supportino e promuovono i ricercatori di gruppi sottorappresentati, un cambiamento di atteggiamenti e culture nella ricerca e nell'industria, e una migliore comunicazione del potenziale trasformativo dell'IA in molti settori potrebbe svolgere un ruolo.
Interventi politici, come l'investimento di 13,5 milioni di sterline da parte del governo per aumentare la diversità nei ruoli di intelligenza artificiale attraverso nuovi corsi di laurea di conversione, andrà in qualche modo a migliorare la situazione, ma sono necessari interventi su scala più ampia per creare migliori collegamenti tra arti, discipline umanistiche e intelligenza artificiale, cambiare l'immagine di chi può lavorare nell'IA.
Sebbene non vi sia un unico motivo per cui le ragazze smettano in modo sproporzionato di seguire materie STEM man mano che progrediscono nell'istruzione, ci sono prove che fattori inclusi stereotipi pervasivi sul genere e un ambiente di insegnamento che influiscono sulla fiducia delle ragazze più dei ragazzi giocano un ruolo nel problema. Dobbiamo anche mostrare quei modelli di ruolo che utilizzano l'intelligenza artificiale per fare la differenza.
Un intervento tangibile che cerca di affrontare questi problemi è il Longitude Explorer Prize, che incoraggia gli studenti delle scuole secondarie a utilizzare l'intelligenza artificiale per risolvere le sfide sociali e lavorare con modelli di ruolo nell'intelligenza artificiale. Vogliamo giovani, in particolare le ragazze, realizzare il potenziale positivo dell'IA e il suo ruolo nel guidare il cambiamento.
Costruendo abilità e fiducia nelle giovani donne, possiamo cambiare il rapporto tra le persone che studiano e lavorano nell'IA e contribuire ad affrontare i potenziali pregiudizi dell'IA.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.