La Duke Computer Science e la professoressa ECE Cynthia Rudin. Credito:Duke University
Quasi quarantamila persone hanno perso la vita in incidenti stradali lo scorso anno solo negli Stati Uniti. Possiamo solo presumere che molti di questi decessi siano dovuti alle nostre fragilità unicamente umane:guida distratta, guida in stato di ebbrezza, o semplice inesperienza. Ha senso allontanare i conducenti umani dalle strade il più rapidamente possibile, e lascia che siano le macchine a guidare.
Questo è un argomento, comunque. C'è anche un argomento convincente per fermarsi e considerare i problemi etici che questa nuova tecnologia fa emergere. Che si tratti di auto a guida autonoma o di un'app per la condivisione di selfie con discutibili protezioni della privacy, la fretta di fornire innovazioni sul mercato spesso ignora le considerazioni etiche, ma diversi professori Duke ECE si stanno opponendo.
La professoressa Duke ECE Missy Cummings è un'ex pilota di caccia della Marina che ora dirige il Laboratorio Umani e Autonomia, o HAL. La sua ricerca si concentra sulla massimizzazione della cooperazione uomo-macchina per prestazioni e risultati ottimali, ed è una schietta "tecno-realista" quando si tratta dell'idea che siamo quasi pronti per le auto altamente autonome per colpire le strade.
"Le auto senza conducente potrebbero ridurre drasticamente le morti sulle strade, ma attualmente, i sistemi di visione artificiale su queste auto sono estremamente fragili, e non pronto per la guida incustodita, " ha detto Cummings. "Sappiamo che le ombre lunghe, angoli di sole bassi, e anche un quarto di pollice di neve può causare il guasto di questi sistemi, a volte in modi catastrofici, quindi mancano ancora 10 o più anni al raggiungimento delle capacità complete senza conducente".
Finora i produttori hanno speso circa 80 miliardi di dollari in ricerca e sviluppo di veicoli autonomi. La dimensione di tale investimento è accompagnata da una pressione di uguale entità; gli investimenti devono essere ripagati, e c'è un chiaro interesse a spingere la tecnologia in un mercato desideroso. Ancora, le carenze degli attuali sistemi AV sono ben documentate. Sono vulnerabili agli hacker. Non sono bravi nei compiti di inferenza, ad esempio, sapendo che una palla che rotola in strada sarà probabilmente seguita da un bambino che la insegue. Questi tipi di errori di conoscenza e abilità, notato Cummings, farebbe fallire un test della patente a un guidatore umano, ma attualmente non esiste un test di "visione artificiale" equivalente che esamini le capacità di ragionamento delle auto senza conducente.
Nonostante le dubbie capacità dei sistemi autonomi e la mancanza di processi per testare e certificare veicoli altamente autonomi, però, hanno già preso le nostre strade, in quelli che sono essenzialmente esperimenti su larga scala che coinvolgono il pubblico senza il suo esplicito consenso.
Cummings ha affermato che il desiderio di ottenere veicoli completamente autonomi è necessario per apportare i miglioramenti incrementali che ci porteranno lì, infine. Ma spingere la tecnologia nel mondo prima che possa essere regolata in modo efficace, ha avvertito, è sia irresponsabile che pericoloso.
È un problema che si estende ben oltre il settore AV.
La professoressa Cynthia Rudin gestisce il laboratorio di analisi e previsione di Duke, ed è un'esperta di machine learning, in particolare, è esperta nella costruzione di algoritmi di machine learning interpretabili, in un mondo sempre più ossessionato dai modelli black box.
"Un modello predittivo a scatola nera è un modello troppo complicato da capire per un essere umano, o una formula proprietaria, significa che è nascosto da un'azienda, " ha affermato Rudin. Gli algoritmi della scatola nera sono comunemente usati in applicazioni low-stakes come la vendita al dettaglio, dove la tua età, reddito, occupazione, cronologia degli acquisti, e un centinaio di altri bit di dati informano la decisione se mostrarti un annuncio pubblicitario per biglietti aerei o vitamine.
Più problematici sono i modelli di scatola nera utilizzati nelle decisioni ad alto rischio, come valutare il rischio di credito e stabilire la libertà vigilata. Queste decisioni possono influenzare profondamente la vita delle persone, ha sottolineato Rudin, ed è difficile per qualcuno a cui è stata negata la libertà vigilata impugnare la decisione se è impossibile vedere come è stata raggiunta la decisione.
Il laboratorio di Rudin è specializzato nello sviluppo di semplici, modelli interpretabili più accurati rispetto ai modelli a scatola nera attualmente utilizzati dal sistema giudiziario. Secondo Rudino, non hai nemmeno bisogno di una calcolatrice per calcolarli.
"C'è una sorta di convinzione diffusa che, poiché un modello è una scatola nera, è più preciso, " disse Rudin. "E questo, per quanto posso dire, è sbagliato. Ho lavorato su molte applicazioni diverse:cure mediche, nell'energia, nel rischio di credito, nella recidiva criminale e non abbiamo mai trovato un'applicazione in cui abbiamo davvero bisogno di una scatola nera. Possiamo sempre utilizzare un modello interpretabile per un problema decisionale ad alto rischio".
L'entusiasmo per i modelli black box, disse Rudino, dovrebbe essere temperato da un'attenta considerazione delle possibili ramificazioni.
"Spesso la comunità accademica non forma gli informatici sugli argomenti giusti, " disse Rudin. "Non li addestriamo nelle statistiche di base, ad esempio. Non li formiamo nell'etica. Quindi sviluppano questa tecnologia senza preoccuparsi di a cosa serve. E questo è un problema".
Quest'anno, Duke Engineering ha istituito il programma Lane Family Ethics in Technology, che incorporerà l'educazione etica nei curricula di ingegneria e informatica. Il programma supporta i contenuti del corso guidati dalla facoltà, attività extrascolastiche e un simposio annuale incentrato sull'etica nella tecnologia.
Stacy Tantum, the Bell-Rhodes Associate Professor of the Practice of Electrical and Computer Engineering, will lead one of the program's first courses this fall. Tantum will work with Amber Díaz Pearson, a research scholar at Duke's Kenan Institute for Ethics, to integrate ethics-focused modules into ECE 580, Introduction to Machine Learning.
Three elements of ethical algorithm development will be emphasized in the course, said Tantum. First is transparency, or why others should be able to easily evaluate all aspects of algorithm design, from the input training data and algorithmic assumptions, to the selection of algorithmic parameters, to the process by which predicted performance is evaluated. Second is algorithmic bias—the conditions that are likely to result in bias, but which are often overlooked, or deemed unimportant. And third is unintended use-cases of algorithms—the potential pitfalls of re-purposing algorithms for use-cases other than those for which they were designed.
"Our goal is to lead students to incorporate ethical considerations as a natural part of algorithm development, not an afterthought to be considered only after an unintended or unanticipated consequence arises, " said Tantum.