Quando un Uber autonomo in Arizona non è riuscito a rallentare, ha colpito fatalmente una donna di 49 anni.
La settimana scorsa, il National Transportation Safety Board (NTSB) degli Stati Uniti ha pubblicato il suo rapporto preliminare sull'incidente a guida autonoma di Uber che ha ucciso una donna a marzo.
L'NTSB ha scoperto che l'auto ha identificato un oggetto sulla strada pochi secondi prima dell'incidente, ma il veicolo non si è fermato. I sensori radar e Lidar del SUV Volvo XC-90 modificato hanno rilevato la 49enne Elaine Herzberg circa sei secondi prima dell'incidente. Il veicolo ha classificato Herzberg per primo come oggetto, poi come veicolo, e infine come una bicicletta mentre camminava con la sua bicicletta dall'altra parte della strada.
Circa un secondo prima dell'impatto, il sistema di guida autonoma ha stabilito che era necessaria una frenata di emergenza per evitare una collisione. Ma, Uber aveva disabilitato il sistema di frenata di emergenza automatico di fabbrica della Volvo per evitare scontri con la sua stessa tecnologia, diceva il rapporto.
Le cose sono peggiorate da lì.
L'NTSB ha anche scoperto che il software di guida autonoma di Uber era stato addestrato a non applicare la propria frenata di emergenza in situazioni che rischiavano "comportamenti irregolari del veicolo". Questo è stato fatto per fornire una guida confortevole:troppi rilevamenti di falsi positivi (ad es. arbusti o sacchetti di plastica sulla strada) comporterebbe un gran numero di freni di emergenza che nessun passeggero tollererà.
Così, Invece, l'azienda si è affidata al driver di backup per intervenire all'ultimo minuto per evitare il disastro. Non è successo.
Ripensare il livello 3 e l'automazione condizionale
La maggior parte dei test di guida autonoma di oggi richiede l'intervento umano. Questo è ciò che viene definito Livello 3 o automazione condizionale:la fase nello sviluppo di veicoli autonomi che ritengo sia la più pericolosa perché comporta il passaggio del controllo del veicolo al conducente di riserva in caso di emergenza.
Poche aziende hanno già scelto di saltare il Livello 3 e puntare al più sicuro Livello 4 (piena autonomia).
Infatti, Direi che il Livello 3 dovrebbe essere esplicitamente vietato su strade aperte. Avere un passo umano all'interno del circuito di controllo all'ultimo minuto possibile è a dir poco un disastro garantito.
Con entrambi i sistemi di frenata di emergenza automatizzati non disponibili nel veicolo Uber, l'azienda contava sull'intervento dell'operatore di backup al momento opportuno per evitare un arresto anomalo. Questo è problematico perché il passaggio del controllo dall'auto all'essere umano pone molte difficoltà soprattutto in situazioni in cui l'operatore di riserva è fuori zona. Le riprese video hanno mostrato l'operatore che guardava in basso immediatamente prima dell'incidente. Ha frenato solo dopo l'urto. Herzberg è stato ucciso.
Il livello 3 fornisce anche ai conducenti un falso senso di sicurezza. A marzo, un guidatore di Tesla è morto in un incidente in California quando il suo veicolo funzionava con il pilota automatico. A maggio 2016, un pilota di Tesla è morto quando la sua auto, anche su pilota automatico, si è schiantato contro un camion in Florida. Questi veicoli sono progettati per essere guidati da esseri umani, assistito da tecnologie di guida autonoma, non guidato da computer con supervisione umana.
Intervento normativo:la via da seguire
Il rapporto NTSB evidenzia non solo le carenze del programma di test di Uber, ma anche un fallimento nella regolamentazione dei test su strade aperte.
Un rapporto pubblicato l'anno scorso ha mostrato che la disponibilità del software per la guida autonoma varia tra i diversi fornitori. Il software di guida autonoma di Waymo era 5, 000 volte più sicuro di quello di Uber, secondo il rapporto. Questo è stato misurato in base al tasso di disimpegno, quando il sistema automatizzato ha costretto il conducente di riserva a prendere il controllo del veicolo. La tariffa di Uber era di 1 disimpegno per miglio percorso, mentre quello di Waymo era 1 disimpegno ogni 5, 128 miglia!
L'industria si autoregola e non si sa come determinano se la loro tecnologia è sicura per funzionare sulle strade pubbliche. Anche i regolatori non sono riusciti a fornire i criteri per prendere tali determinazioni.
Sebbene sia necessario testare le prestazioni del software di guida autonoma in condizioni reali, le prove su strade aperte non dovrebbero riguardare la verifica della sicurezza dei sistemi. I test di sicurezza dovrebbero essere valutati in modo completo prima di autorizzare i veicoli sulle strade pubbliche.
Una linea d'azione appropriata sarebbe che i regolatori elaborino una serie di test standardizzati, e richiedere alle aziende di confrontare i propri algoritmi sugli stessi set di dati.
I regolatori dovrebbero seguire un approccio graduale alla certificazione. Primo, il sistema di guida autonoma viene valutato in ambienti di simulazione. Ciò garantisce che il sistema funzioni in modo sicuro. Questo è seguito da test nel mondo reale in ambienti confinati (ad esempio su banchi di prova). Una volta che i veicoli superano i test di riferimento, i regolatori possono consentirli su strade aperte ma anche con condizioni di sicurezza.
Questo tragico incidente dovrebbe fungere da catalizzatore affinché le autorità di regolamentazione stabiliscano una cultura della sicurezza forte e solida per guidare le innovazioni nelle tecnologie di guida autonoma. Senza questo, il dispiegamento di veicoli autonomi non andrebbe da nessuna parte molto velocemente.