• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  science >> Scienza >  >> Altro
    In che modo la diversità delle materie del test è un punto cieco tecnologico e cosa fare al riguardo

    Senza una vasta gamma di soggetti di prova, alcune nuove tecnologie potrebbero non funzionare come previsto per molte persone. Credito:John Paul Van Wert/Rank Studios/Flickr, CC BY-SA

    Le persone interagiscono con le macchine in innumerevoli modi ogni giorno. In alcuni casi, controllano attivamente un dispositivo, come guidare un'auto o utilizzare un'app su uno smartphone. A volte le persone interagiscono passivamente con un dispositivo, come essere ripreso da una macchina per risonanza magnetica. E a volte interagiscono con le macchine senza consenso o addirittura senza conoscere l'interazione, come essere scansionati da un sistema di riconoscimento facciale delle forze dell'ordine.

    L'interazione uomo-macchina (HMI) è un termine generico che descrive i modi in cui le persone interagiscono con le macchine. L'HMI è un aspetto chiave della ricerca, della progettazione e della costruzione di nuove tecnologie e anche dello studio di come le persone utilizzano e sono influenzate dalle tecnologie.

    I ricercatori, in particolare quelli tradizionalmente formati in ingegneria, stanno adottando sempre più un approccio incentrato sull'uomo nello sviluppo di sistemi e dispositivi. Ciò significa impegnarsi per creare una tecnologia che funzioni come previsto per le persone che la utilizzeranno, tenendo conto di ciò che si sa sulle persone e testando la tecnologia con loro. Ma anche se i ricercatori di ingegneria danno sempre più priorità a queste considerazioni, alcuni nel campo hanno un punto cieco:la diversità.

    In qualità di ricercatore interdisciplinare che pensa in modo olistico all'ingegneria e al design ed esperto di dinamica e materiali intelligenti con interessi nelle politiche, abbiamo esaminato la mancanza di inclusione nella progettazione tecnologica, le conseguenze negative e le possibili soluzioni.

    Persone a portata di mano

    I ricercatori e gli sviluppatori in genere seguono un processo di progettazione che prevede il test delle funzioni e delle caratteristiche chiave prima di rilasciare i prodotti al pubblico. Se eseguiti correttamente, questi test possono essere una componente chiave del design compassionevole. I test possono includere interviste ed esperimenti con gruppi di persone che sostituiscono il pubblico.

    In contesti accademici, ad esempio, la maggior parte dei partecipanti allo studio sono studenti. Alcuni ricercatori tentano di reclutare partecipanti fuori dal campus, ma queste comunità sono spesso simili alla popolazione universitaria. Le caffetterie e altre attività commerciali di proprietà locale, ad esempio, possono consentire l'affissione di volantini nei loro stabilimenti. Tuttavia, la clientela di questi istituti è spesso costituita da studenti, docenti e personale accademico.

    In molti settori, i colleghi fungono da partecipanti al test per il lavoro nella fase iniziale perché è conveniente assumere dall'interno di un'azienda. Ci vuole uno sforzo per coinvolgere partecipanti esterni e, quando vengono utilizzati, spesso riflettono la maggioranza della popolazione. Pertanto, molte delle persone che partecipano a questi studi hanno caratteristiche demografiche simili.

    Tahira Reid parla del design compassionevole in ingegneria.

    Danno nel mondo reale

    È possibile utilizzare un campione omogeneo di persone nella pubblicazione di un documento di ricerca che si aggiunge al corpo di conoscenze di un campo. E alcuni ricercatori che conducono studi in questo modo riconoscono i limiti di popolazioni di studio omogenee. Tuttavia, quando si tratta di sviluppare sistemi basati su algoritmi, tali sviste possono causare problemi nel mondo reale. Gli algoritmi sono buoni solo quanto i dati utilizzati per costruirli.

    Gli algoritmi sono spesso basati su modelli matematici che catturano schemi e quindi informano un computer su tali schemi per eseguire un determinato compito. Immagina un algoritmo progettato per rilevare quando i colori appaiono su una superficie chiara. Se l'insieme di immagini utilizzato per addestrare tale algoritmo è costituito principalmente da sfumature di rosso, l'algoritmo potrebbe non rilevare quando è presente una sfumatura di blu o di giallo.

    In pratica, gli algoritmi non sono riusciti a rilevare le tonalità della pelle più scure per il programma di cura della pelle di Google e nei distributori automatici di sapone; identificare accuratamente un sospetto, che ha portato all'arresto ingiusto di un uomo innocente a Detroit; e identificare in modo affidabile le donne di colore. Joy Buolamwini, ricercatrice del MIT sull'intelligenza artificiale, descrive questo come un pregiudizio algoritmico e ha ampiamente discusso e pubblicato lavori su questi problemi.

    Anche se gli Stati Uniti combattono il COVID-19, la mancanza di dati di addestramento diversificati è diventata evidente nei dispositivi medici. I pulsossimetri, essenziali per tenere traccia della propria salute a casa e per indicare quando potrebbe essere necessario il ricovero in ospedale, potrebbero essere meno accurati per le persone con pelle melanata. Questi difetti di progettazione, come quelli degli algoritmi, non sono inerenti al dispositivo, ma possono essere ricondotti alla tecnologia progettata e testata utilizzando popolazioni che non erano sufficientemente diverse da rappresentare tutti i potenziali utenti.

    Essere inclusivi

    I ricercatori nel mondo accademico sono spesso sotto pressione per pubblicare i risultati della ricerca il più rapidamente possibile. Pertanto, è molto comune fare affidamento su campioni di convenienza, ovvero persone facili da raggiungere e da cui ottenere dati.

    Molti problemi, come questo distributore automatico di sapone che funziona per una mano bianca ma non per una mano nera, potrebbero essere evitati con test più inclusivi.

    Sebbene esistano commissioni di revisione istituzionali per garantire che i diritti dei partecipanti allo studio siano protetti e che i ricercatori seguano un'etica adeguata nel loro lavoro, non hanno la responsabilità di dettare ai ricercatori chi dovrebbero reclutare. Quando i ricercatori hanno poco tempo, considerare popolazioni diverse per i soggetti di studio può significare un ulteriore ritardo. Infine, alcuni ricercatori potrebbero semplicemente non essere consapevoli di come diversificare adeguatamente le materie del loro studio.

    Esistono diversi modi in cui i ricercatori nel mondo accademico e nell'industria possono aumentare la diversità dei loro pool di partecipanti allo studio.

    Uno è quello di trovare il tempo per svolgere il lavoro scomodo e talvolta duro di sviluppare strategie di reclutamento inclusive. Questo può richiedere un pensiero creativo. Uno di questi metodi è reclutare studenti diversi che possono fungere da ambasciatori in comunità diverse. Gli studenti possono acquisire esperienza di ricerca e allo stesso tempo fungere da ponte tra le loro comunità e i ricercatori.

    Un altro è consentire ai membri della comunità di partecipare alla ricerca e fornire il consenso per tecnologie nuove e sconosciute quando possibile. Ad esempio, i gruppi di ricerca possono formare un comitato consultivo composto da membri di varie comunità. Alcuni campi includono spesso un comitato consultivo come parte dei loro piani di ricerca finanziati dal governo.

    Un altro approccio consiste nell'includere come membri del gruppo di ricerca persone che sanno come pensare alle implicazioni culturali delle tecnologie. Ad esempio, l'uso di un cane robotico da parte del dipartimento di polizia di New York City a Brooklyn, nel Queens e nel Bronx ha suscitato indignazione tra i residenti. Ciò avrebbe potuto essere evitato se si fossero impegnati con esperti di scienze sociali o studi scientifici e tecnologici, o semplicemente consultandosi con i leader della comunità.

    Infine, la diversità non riguarda solo la razza, ma anche l'età, l'identità di genere, il background culturale, i livelli di istruzione, la disabilità, la conoscenza dell'inglese e persino i livelli socioeconomici. Lyft è in missione per implementare la robotica l'anno prossimo e gli esperti sono entusiasti delle prospettive di utilizzare la robotica per il trasporto di anziani e disabili. Non è chiaro se queste aspirazioni includano coloro che vivono in comunità meno abbienti oa basso reddito, o se non abbiano il sostegno familiare che potrebbe aiutare a preparare le persone a utilizzare il servizio. Prima di inviare un robotaxi per trasportare le nonne, è importante tenere conto di come una vasta gamma di persone sperimenterà la tecnologia.

    © Scienza https://it.scienceaq.com