• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Come l'intelligenza artificiale può aiutare a combattere il razzismo sistemico

    Credito:Pixabay/CC0 di dominio pubblico

    Nel 2020, la polizia di Detroit ha arrestato un uomo di colore per aver rubato orologi per un valore di quasi $ 4.000 da una boutique di lusso. È stato ammanettato davanti alla sua famiglia e ha trascorso una notte in carcere. Dopo alcune domande, tuttavia, è diventato chiaro che avevano l'uomo sbagliato. Allora perché lo hanno arrestato in primo luogo?

    Il motivo:un algoritmo di riconoscimento facciale aveva abbinato la foto sulla sua patente a filmati sgranati della telecamera di sicurezza.

    Gli algoritmi di riconoscimento facciale, che hanno ripetutamente dimostrato di essere meno accurati per le persone con la pelle più scura, sono solo un esempio di come i pregiudizi razziali vengono replicati e perpetuati dalle tecnologie emergenti.

    "C'è un'urgenza poiché l'IA viene utilizzata per prendere decisioni molto alte", afferma il professore in visita MLK S. Craig Watkins, la cui sede accademica per il suo tempo al MIT è l'Institute for Data, Systems, and Society (IDSS). "La posta in gioco è più alta perché i nuovi sistemi possono replicare i pregiudizi storici su larga scala."

    Watkins, professore all'Università del Texas ad Austin e direttore fondatore dell'Institute for Media Innovation, ricerca l'impatto dei media e dei sistemi basati sui dati sul comportamento umano, con una concentrazione specifica sulle questioni legate al razzismo sistemico. "Una delle domande fondamentali del lavoro è:come costruiamo modelli di IA che affrontino la disuguaglianza sistemica in modo più efficace?"

    IA etica

    La disuguaglianza è perpetuata dalla tecnologia in molti modi in molti settori. Un ampio dominio è l'assistenza sanitaria, dove Watkins afferma che l'iniquità si manifesta sia nella qualità che nell'accesso alle cure. La domanda di assistenza sanitaria mentale, ad esempio, supera di gran lunga la capacità di servizi negli Stati Uniti. Questa richiesta è stata esacerbata dalla pandemia e l'accesso alle cure è più difficile per le comunità di colore.

    Per Watkins, eliminare il pregiudizio dall'algoritmo è solo una componente della creazione di un'IA più etica. Lavora anche per sviluppare strumenti e piattaforme in grado di affrontare la disuguaglianza al di fuori della tecnologia frontalmente. Nel caso dell'accesso alla salute mentale, ciò comporta lo sviluppo di uno strumento per aiutare i fornitori di salute mentale a fornire cure in modo più efficiente.

    "Stiamo costruendo una piattaforma di raccolta dati in tempo reale che esamina attività e comportamenti e cerca di identificare modelli e contesti in cui emergono determinati stati mentali", afferma Watkins. "L'obiettivo è fornire informazioni basate sui dati agli operatori sanitari al fine di fornire servizi di maggiore impatto."

    Watkins non è estraneo ai problemi di privacy che un'app del genere solleverebbe. Adotta un approccio centrato sull'utente allo sviluppo basato sull'etica dei dati. "I diritti sui dati sono una componente significativa", sostiene. "Devi dare all'utente il controllo completo su come i suoi dati vengono condivisi e utilizzati e su quali dati vede un operatore sanitario. Nessun altro ha accesso."

    Intelligenza artificiale e futuro della giustizia razziale. Credito:S. Craig Watkins | TEDxMIT

    Lotta al razzismo sistemico

    Qui al MIT, Watkins ha aderito alla Initiative on Combatting Systemic Racism (ICSR), una collaborazione di ricerca IDSS che riunisce docenti e ricercatori del MIT Stephen A. Schwarzman College of Computing e oltre. L'obiettivo dell'ICSR è quello di sviluppare e sfruttare strumenti computazionali che possono aiutare a realizzare un cambiamento strutturale e normativo verso l'equità razziale.

    La collaborazione dell'ICSR ha gruppi di progetto separati che ricercano il razzismo sistemico in diversi settori della società, compresa l'assistenza sanitaria. Ciascuno di questi "verticali" affronta questioni diverse ma interconnesse, dalla sostenibilità all'occupazione al gioco. Watkins fa parte di due gruppi ICSR, polizia e alloggi, che mirano a comprendere meglio i processi che portano a pratiche discriminatorie in entrambi i settori. "La discriminazione negli alloggi contribuisce in modo significativo al divario di ricchezza razziale negli Stati Uniti", afferma Watkins.

    La squadra di polizia esamina i modelli in cui le diverse popolazioni vengono sorvegliate. "C'è ovviamente una storia significativa e carica di polizia e razza in America", afferma Watkins. "Questo è un tentativo di comprendere, identificare i modelli e notare le differenze regionali."

    Watkins e il team di polizia stanno costruendo modelli utilizzando dati che descrivono in dettaglio gli interventi della polizia, le risposte e la razza, tra le altre variabili. L'ICSR si adatta bene a questo tipo di ricerca, afferma Watkins, che rileva l'attenzione interdisciplinare sia dell'IDSS che dell'SCC.

    "Il cambiamento sistemico richiede un modello collaborativo e competenze diverse", afferma Watkins. "Stiamo cercando di massimizzare l'influenza e il potenziale sul lato computazionale, ma non ci arriveremo solo con il calcolo."

    Opportunità di cambiamento

    I modelli possono anche prevedere i risultati, ma Watkins fa attenzione a sottolineare che nessun algoritmo da solo risolverà le sfide razziali.

    "I modelli dal mio punto di vista possono informare la politica e la strategia che noi esseri umani dobbiamo creare. I modelli computazionali possono informare e generare conoscenza, ma ciò non equivale al cambiamento". Ci vuole lavoro aggiuntivo, e competenze aggiuntive in materia di politiche e advocacy, per utilizzare le conoscenze e le conoscenze per sforzarsi di progredire.

    Un'importante leva del cambiamento, sostiene, sarà la costruzione di una società più alfabetizzata all'IA attraverso l'accesso alle informazioni e alle opportunità per comprendere l'IA e il suo impatto in un modo più dinamico. Spera di vedere maggiori diritti sui dati e una maggiore comprensione di come i sistemi sociali influiscono sulle nostre vite.

    "Sono stato ispirato dalla risposta dei giovani agli omicidi di George Floyd e Breonna Taylor", dice. "Le loro tragiche morti fanno luce sulle implicazioni del razzismo strutturale nel mondo reale e hanno costretto la società in generale a prestare maggiore attenzione a questo problema, che crea maggiori opportunità di cambiamento".

    © Scienza https://it.scienceaq.com