Credito:Unsplash/CC0 dominio pubblico
Nella corsa per superare le altre aziende, il design dell'intelligenza artificiale (AI) manca di una profonda comprensione del significato dei dati sugli esseri umani e della sua relazione con l'equità. Due sociologi della Drexel University suggeriscono di prestare maggiore attenzione all'impatto sociale dell'IA, come appare più frequentemente che mai.
"La pandemia di coronavirus ha accelerato l'uso dell'intelligenza artificiale e dell'automazione per sostituire i lavoratori umani, come parte dello sforzo per ridurre al minimo i rischi associati alle interazioni faccia a faccia, "ha detto Kelly Joyce, dottorato di ricerca, professore al College of Arts and Sciences e direttore fondatore del Center for Science, Tecnologia e società in Drexel. "Stiamo assistendo sempre più ad esempi di algoritmi che stanno intensificando le disuguaglianze esistenti. Poiché istituzioni come l'istruzione, assistenza sanitaria, guerra, e il lavoro adottano questi sistemi, dobbiamo rimediare a questa iniquità".
In un articolo appena pubblicato in Socio , Joyce, Susan Bell, dottorato di ricerca, un professore al College of Arts and Sciences, e colleghi sollevano preoccupazioni sulla spinta ad accelerare rapidamente lo sviluppo dell'IA negli Stati Uniti senza accelerare le pratiche di formazione e sviluppo necessarie per rendere etica la tecnologia. Il documento propone un'agenda di ricerca per una sociologia dell'IA.
"La comprensione della sociologia della relazione tra dati umani e disuguaglianze di vecchia data è necessaria per creare sistemi di intelligenza artificiale che promuovono l'uguaglianza, " ha spiegato Joyce.
Come definiamo l'IA?
Il termine AI è stato utilizzato in molti modi diversi e le prime interpretazioni associano il termine a un software in grado di apprendere e agire da solo. Per esempio, le auto a guida autonoma apprendono e identificano percorsi e ostacoli, proprio come i robot aspirapolvere fanno il perimetro o il layout di una casa, e gli assistenti intelligenti (Alexa o Google Assistant) identificano il tono di voce e le preferenze del loro utente.
"L'intelligenza artificiale ha un ambito di definizione fluido che aiuta a spiegare il suo fascino, " disse Joyce. "È espansivo, ma il significato non specificato consente ai promotori di realizzare progetti orientati al futuro, empiricamente infondato, promesse del suo potenziale impatto sociale positivo."
Joyce, Bell e colleghi spiegano che negli ultimi anni, le comunità di programmazione si sono in gran parte concentrate sullo sviluppo dell'apprendimento automatico (ML) come forma di intelligenza artificiale. Il termine ML è più comunemente usato tra i ricercatori rispetto al termine AI, sebbene AI continui a essere il termine rivolto al pubblico utilizzato dalle aziende, istituti, e iniziative. "ML enfatizza la formazione dei sistemi informatici per riconoscere, ordinare, e prevedere i risultati dell'analisi dei set di dati esistenti, " ha spiegato Joyce.
Professionisti dell'IA, scienziati informatici, data scientist e ingegneri stanno addestrando sistemi per riconoscere, ordinare e prevedere i risultati dell'analisi dei set di dati esistenti. Gli esseri umani immettono i dati esistenti per aiutare ad addestrare i sistemi di intelligenza artificiale a prendere decisioni autonome. Il problema qui è che i professionisti dell'IA in genere non capiscono come i dati sugli esseri umani siano quasi sempre anche dati sulla disuguaglianza.
"I professionisti dell'IA potrebbero non essere consapevoli che i dati su X (ad es. Codici di avviamento postale, cartelle cliniche, posizione delle autostrade) possono anche essere dati su Y (ad es. classe, disuguaglianze di genere o di razza, stato socioeconomico), " disse Joyce, chi è l'autore principale dell'articolo. "Potrebbero pensare, Per esempio, che i codici postali sono dati neutri che si applicano a tutte le persone in modo uguale invece di capire che i codici postali spesso forniscono anche informazioni su razza e classe a causa della segregazione. Questa mancanza di comprensione ha portato all'accelerazione e all'intensificazione delle disuguaglianze man mano che i sistemi di machine learning vengono sviluppati e implementati".
"Identificare le correlazioni tra gruppi vulnerabili e opportunità di vita, I sistemi di intelligenza artificiale accettano queste correlazioni come causalità, e usarli per prendere decisioni sugli interventi futuri. In questo modo, I sistemi di intelligenza artificiale non creano nuovi futuri, ma piuttosto replicare le disuguaglianze durevoli che esistono in un particolare mondo sociale, " spiega Joyce.
L'intelligenza artificiale è messa in pericolo dal razzismo sistemico e dai pregiudizi umani?
Ci sono politiche legate agli algoritmi, dati e codice. Considera il motore di ricerca Google. Sebbene i risultati di ricerca di Google possano sembrare output neutri o singolari, Il motore di ricerca di Google ricrea il sessismo e il razzismo presenti nella vita di tutti i giorni.
"I risultati della ricerca riflettono le decisioni che vanno nella creazione di algoritmi e codici, e questi riflettono il punto di vista dei lavoratori di Google, " spiega Bell. "In particolare, le loro decisioni su cosa etichettare come sessista o razzista riflettono le strutture sociali più ampie del razzismo e del sessismo pervasivi. A sua volta, decisioni su cosa etichettare come sessista o razzista "addestrano" un sistema di ML. Sebbene Google incolpi gli utenti per aver contribuito a risultati di ricerca sessisti e razzisti, la fonte risiede nell'"input"."
Bell sottolinea "in contrasto con la neutralità percepita dei risultati di ricerca di Google, l'oppressione e la disuguaglianza della società sono incorporate e amplificate da esse".
Un altro esempio che gli autori sottolineano sono i sistemi di intelligenza artificiale che utilizzano i dati delle cartelle cliniche elettroniche (EHR) dei pazienti per fare previsioni su raccomandazioni terapeutiche appropriate. Sebbene gli informatici e gli ingegneri considerino spesso la privacy durante la progettazione di sistemi di intelligenza artificiale, comprendere le dimensioni multivalenti dei dati umani non fa tipicamente parte della loro formazione. Dato ciò, possono presumere che i dati EHR rappresentino una conoscenza obiettiva del trattamento e dei risultati, invece di guardarlo attraverso una lente sociologica che riconosca come i dati EHR siano parziali e situati.
"Quando si utilizza un approccio sociologico, "Joyce spiega, "Capisci che i risultati dei pazienti non sono neutri o oggettivi, ma sono legati allo stato socioeconomico dei pazienti, e spesso ci dicono di più sulle differenze di classe, razzismo e altri tipi di disuguaglianze rispetto all'efficacia di particolari trattamenti".
Il documento rileva esempi come un algoritmo che raccomandava che i pazienti neri ricevano meno assistenza sanitaria rispetto ai pazienti bianchi con le stesse condizioni e un rapporto che mostra che il software di riconoscimento facciale ha meno probabilità di riconoscere le persone di colore e le donne hanno mostrato che l'intelligenza artificiale può intensificare le disuguaglianze esistenti.
"Una comprensione sociologica dei dati è importante, dato che un uso acritico dei dati umani nei sistemi sociotecnici dell'IA tenderà a riprodursi, e forse anche esacerbare, disuguaglianze sociali preesistenti, " ha affermato Bell. "Sebbene le aziende che producono sistemi di intelligenza artificiale si nascondano dietro l'affermazione che gli algoritmi o gli utenti della piattaforma creino razzismo, risultati sessisti, borsa di studio sociologica illustra come il processo decisionale umano avviene in ogni fase del processo di codifica".
Nella carta, i ricercatori dimostrano che la borsa di studio sociologica può essere unita ad altre ricerche di scienze sociali critiche per evitare alcune delle insidie delle applicazioni dell'IA. "Esaminando la progettazione e l'implementazione dei sistemi sociotecnici di IA, il lavoro sociologico mette in luce il lavoro umano e i contesti sociali, " ha affermato Joyce. Basandosi sul riconoscimento da parte della sociologia dell'importanza dei contesti organizzativi nella formazione dei risultati, il documento mostra che sia le fonti di finanziamento che i contesti istituzionali sono fattori chiave del modo in cui i sistemi di IA vengono sviluppati e utilizzati.
L'intelligenza artificiale richiede la guida della sociologia? I ricercatori dicono di sì.
Joyce, Bell e colleghi suggeriscono che, nonostante gli sforzi ben intenzionati per incorporare la conoscenza dei mondi sociali nei sistemi sociotecnici, Gli scienziati dell'intelligenza artificiale continuano a dimostrare una comprensione limitata del sociale, dando la priorità a ciò che può essere strumentale per l'esecuzione di attività di ingegneria dell'intelligenza artificiale, ma cancellando la complessità e il radicamento delle disuguaglianze sociali.
"L'approccio profondamente strutturale della sociologia è anche in contrasto con gli approcci che evidenziano la scelta individuale, " ha detto Joyce. "Uno dei tropi più pervasivi del liberalismo politico è che il cambiamento sociale è guidato dalla scelta individuale. Come individui, la logica va, possiamo creare futuri più equi realizzando e scegliendo prodotti migliori, pratiche, e rappresentanti politici. Il mondo della tecnologia tende a sostenere una prospettiva altrettanto individualistica quando i suoi ingegneri ed esperti di etica enfatizzano l'eliminazione dei pregiudizi umani a livello individuale e il miglioramento della formazione sulla sensibilità come un modo per affrontare la disuguaglianza nei sistemi di intelligenza artificiale".
Joyce, Bell e colleghi invitano i sociologi a utilizzare gli strumenti teorici e metodologici della disciplina per analizzare quando e come le disuguaglianze sono rese più durature dai sistemi di intelligenza artificiale. I ricercatori sottolineano che la creazione di sistemi sociotecnici di IA non è semplicemente una questione di progettazione tecnologica, ma solleva anche questioni fondamentali sul potere e sull'ordine sociale.
"I sociologi sono formati per identificare come le disuguaglianze sono incorporate in tutti gli aspetti della società e per indicare strade per un cambiamento sociale strutturale. Pertanto, i sociologi dovrebbero svolgere un ruolo di primo piano nell'immaginare e plasmare il futuro dell'IA, " disse Joyce.