Si fermerà? Credito:marat marihal/Shutterstock.com
Il 19 marzo, un veicolo a guida autonoma Uber in fase di test in Arizona ha colpito e ucciso Elaine Herzberg, che stava attraversando la strada a piedi con la sua bicicletta. È la prima volta che un veicolo a guida autonoma uccide un pedone, e solleva interrogativi sull'etica dello sviluppo e del test delle tecnologie emergenti. Alcune risposte dovranno attendere il completamento dell'indagine completa. Comunque, Nicholas Evans, un professore di filosofia all'Università del Massachusetts-Lowell che studia l'etica dei processi decisionali dei veicoli autonomi, dice che alcune domande possono essere risolte ora.
1. Un guidatore umano avrebbe potuto evitare questo incidente?
Probabilmente è così. È facile pensare che la maggior parte delle persone avrebbe problemi a vedere un pedone che attraversa una strada di notte. Ma ciò che è già chiaro su questo particolare evento è che la strada non era così buia come inizialmente affermato dal capo della polizia locale.
Il capo ha anche originariamente detto che Herzberg è improvvisamente uscito nel traffico davanti all'auto. Però, il filmato inquietante e allarmante diffuso da Uber e dalle autorità locali mostra che ciò non è vero:piuttosto, Herzberg aveva già attraversato una corsia della strada a due corsie, ed era in procinto di continuare l'incrocio quando l'Uber l'ha colpita. (Anche il conducente della sicurezza non si è accorto del pedone, ma il video suggerisce che l'autista stava guardando in basso, non attraverso il parabrezza.)
Un normale guidatore umano, qualcuno che presta attivamente attenzione alla strada, probabilmente avrebbe avuto pochi problemi a evitare Herzberg:con i fari accesi mentre si viaggiava a 40 mph su una strada effettivamente buia, non è difficile evitare gli ostacoli su un rettilineo quando sono a 100 piedi o più avanti, comprese persone o animali selvatici che cercano di attraversare. Questo incidente era evitabile.
Una tragica implicazione di questo fatto è chiara:un'auto a guida autonoma ha ucciso una persona. Ma c'è anche un significato pubblico. Almeno questa macchina Uber ha guidato da sola su strade popolate senza essere in grado di svolgere il cruciale compito di sicurezza di rilevare un pedone, e frenare o sterzare per non urtare la persona.
Sulla scia della morte di Herzberg, la sicurezza e l'affidabilità delle auto a guida autonoma di Uber sono state messe in discussione. Vale anche la pena esaminare l'etica:proprio come Uber è stato criticato per aver sfruttato i suoi driver per i profitti, la società potrebbe probabilmente sfruttare la guida, pubblico a cavallo e a piedi per i propri scopi di ricerca.
2. Anche se questo incidente fosse evitabile, Le auto a guida autonoma sono ancora generalmente più sicure delle auto a guida umana?
Non ancora. Il bilancio delle vittime sulle strade degli Stati Uniti è infatti allarmante:circa 32, 000 morti all'anno. La stima federale è che 1,18 persone muoiono per 100 milioni di miglia stradali guidate dall'uomo. Le auto di Uber hanno percorso solo 3 milioni di miglia, però, prima della loro prima fatalità. Non è giusto fare analisi statistiche da un singolo punto di dati, ma non è un ottimo inizio:le aziende dovrebbero mirare a rendere i loro robot buoni almeno quanto gli umani, se non ancora mantenendo la promessa di essere significativamente migliore.
Anche se le auto a guida autonoma di Uber fossero conducenti migliori, i numeri non raccontano tutta la storia. Dei 32, 000 persone che muoiono ogni anno sulle strade degli Stati Uniti, 5, 000 a 6, 000 sono pedoni. Quando si mira a migliorare la sicurezza, l'obiettivo dovrebbe essere quello di ridurre i decessi complessivi o di porre un'enfasi speciale sulla protezione delle vittime più vulnerabili? È certamente ipoteticamente possibile immaginare un sistema di auto a guida autonoma che dimezzi le vittime della strada complessive - a 16, 000 – raddoppiando il tasso di mortalità dei pedoni – a 12, 000. Nel complesso, potrebbe sembrare molto meglio dei conducenti umani, ma non dal punto di vista delle persone che camminano lungo le strade della nazione!
Il mio gruppo di ricerca ha lavorato per sviluppare quadri decisionali etici per le auto a guida autonoma. Un potenziale approccio è chiamato "maximin". Fondamentalmente, questo modo di pensare suggerisce che le persone che progettano veicoli autonomi - sia fisicamente che in termini di software che li gestisce - dovrebbero identificare i peggiori risultati possibili di qualsiasi decisione, anche se raro, e lavorare per minimizzare i loro effetti. Chiunque abbia avuto la sfortuna di essere investito da un'auto sia da pedone che a bordo di un veicolo sa che stare a piedi è molto peggio. Sotto il massimo, le persone dovrebbero progettare e testare automobili, tra l'altro, privilegiare la sicurezza dei pedoni.
Maximin probabilmente non è la migliore teoria della decisione morale possibile – e certamente non è l'unica – da utilizzare. In alcuni casi, il peggior risultato potrebbe essere evitato se un'auto non esce mai dal vialetto! Ma maximin fornisce spunti di riflessione su come integrare le auto a guida autonoma nella vita quotidiana. Anche se le auto a guida autonoma sono sempre valutate come più sicure degli umani, ciò che conta come "più sicuro" è molto importante.
3. Quanto dovrebbero essere migliori le auto a guida autonoma rispetto agli umani prima che il pubblico le accetti?
Anche se le persone potessero essere d'accordo sui modi in cui le auto a guida autonoma dovrebbero essere più sicure degli umani, non è chiaro che le persone dovrebbero essere d'accordo con le auto a guida autonoma quando per la prima volta diventano solo a malapena migliori degli umani. Se qualcosa, è allora che dovrebbero iniziare i test sulle strade della città.
Consideriamo un nuovo farmaco sviluppato da un'azienda farmaceutica. L'azienda non può commercializzarlo non appena è dimostrato che non uccide le persone che lo prendono. Piuttosto, il farmaco deve superare una serie di test che dimostrino che è efficace nel trattamento del sintomo o della condizione a cui è destinato. Sempre più, i test antidroga cercano di dimostrare che un farmaco è significativamente migliore di quello che è già sul mercato. Le persone dovrebbero aspettarsi lo stesso con le auto a guida autonoma prima che le aziende mettano a rischio il pubblico.
L'incidente in Arizona non è stata solo una tragedia. L'incapacità di vedere un pedone in condizioni di scarsa illuminazione era un errore di base evitabile per un'auto a guida autonoma. I veicoli autonomi dovrebbero essere in grado di fare molto di più prima di poter essere guidati, anche nei test, sulla strada aperta. Proprio come le aziende farmaceutiche, le grandi aziende tecnologiche dovrebbero essere tenute a testare accuratamente – ed eticamente – i loro sistemi prima che le loro auto a guida autonoma servano o mettano in pericolo il pubblico.
Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.