Credito:Unsplash/CC0 di dominio pubblico
Alla fine del 2019, l'auto di Kevin George Aziz Riad è uscita di corsa da un'autostrada della California, ha attraversato un semaforo rosso e si è schiantata contro un'altra macchina, uccidendo le due persone all'interno. L'auto di Riad, una Tesla Model S, era con il pilota automatico.
All'inizio di quest'anno, i pubblici ministeri della contea di Los Angeles hanno presentato due accuse di omicidio stradale contro Riad, che ora ha 27 anni, e il caso segna il primo procedimento penale negli Stati Uniti per un incidente stradale mortale che coinvolge un sistema di assistenza alla guida. È anche il primo procedimento penale per un incidente che coinvolge la funzione di pilota automatico di Tesla, che si trova su oltre 750.000 auto negli Stati Uniti. Nel frattempo, la famiglia delle vittime dell'incidente sta portando avanti cause civili sia contro Riad che contro Tesla.
Tesla è attenta a distinguere tra la sua funzione di pilota automatico e un'auto senza conducente, confrontando il suo sistema di assistenza alla guida con la tecnologia utilizzata dai piloti di aeroplano quando le condizioni sono chiare. "Tesla Autopilot allevia i conducenti dagli aspetti più noiosi e potenzialmente pericolosi del viaggio su strada", afferma Tesla online. "Stiamo costruendo il pilota automatico per darti più sicurezza al volante, aumentare la tua sicurezza sulla strada e rendere più piacevole la guida in autostrada... Il conducente è ancora responsabile e, in definitiva, ha il controllo dell'auto".
Il produttore di veicoli elettrici attribuisce chiaramente l'onere della sicurezza al conducente, ma la ricerca suggerisce che gli esseri umani sono suscettibili ai pregiudizi di automazione, a un'eccessiva dipendenza da ausili automatizzati e sistemi di supporto alle decisioni. Ora spetta ai tribunali decidere chi è colpevole quando l'uso di quei sistemi si traduce in errori fatali.
Attualmente, Riad è fuori su cauzione e si dichiara non colpevole di omicidio colposo. NYU News ha parlato con Mark Geistfeld — NYU Law Sheila Lubetsky Birnbaum Professore di contenzioso civile e autrice del documento di California Law Review "A Roadmap for Autonomous Vehicles:State Tort Liability, Automobile Insurance, and Federal Safety Regulation" — sul significato di questi accuse penali e cosa potrebbero significare per il futuro della fiducia dei consumatori nelle nuove tecnologie.
Puoi fare un po' di luce sul precedente legale stabilito dal procedimento penale contro Kevin George Aziz Riad? Quale messaggio invia ai consumatori e ai produttori di tecnologie simili?
In primo luogo, le accuse penali sono sorprendenti, sulla base di ciò che sappiamo:i documenti di imputazione penale, come al solito, non forniscono dettagli. In genere, se non prestassi attenzione, accendessi il semaforo rosso e colpissi qualcuno, per quanto tragico sia, non otterresti un'accusa penale da quel comportamento nella stragrande maggioranza dei casi. Non ci sono davvero molti procedimenti penali per incidenti automobilistici al di fuori dei casi di guida in stato di ebbrezza.
Se l'autista fosse ritenuto colpevole di omicidio colposo, questo caso potrebbe davvero essere il precedente più dirompente, più nuovo, più innovativo. È un forte allontanamento dal passato, se in realtà il procedimento penale si basa semplicemente sul fatto che si è affidato al pilota automatico quando avrebbe dovuto subentrare. Se è quello che sta succedendo, potresti vedere molti più procedimenti penali che vanno avanti di quanto facciamo oggi.
La responsabilità civile, o le accuse civili, al contrario, è molto comune. In quel momento l'imputato pagherebbe i danni per i danni causati. La maggior parte delle cause per illecito civile nei tribunali statali di tutto il paese provengono da incidenti automobilistici in cui si presume che un conducente abbia causato negligenza l'incidente, che si è chiaramente verificato in questo caso perché il conducente è passato con un semaforo rosso.
Se questo caso in qualche modo segnala che la responsabilità penale è più possibile semplicemente facendo affidamento sulla tecnologia, allora ciò potrebbe diventare un profondo cambiamento nella natura delle responsabilità legali che vanno avanti.
Quale obbligo ha un'azienda di tecnologia avanzata come Tesla nell'informare i conducenti, direttamente o tramite messaggi pubblicitari e di marketing, che sono responsabili di tutti i danni, indipendentemente dal fatto che l'auto sia dotata di pilota automatico?
Hanno chiaramente l'obbligo di avvertire la persona seduta al posto di guida di prendere in consegna il veicolo, che non è in grado di fare tutto da solo. Vedi quell'avviso nei veicoli Tesla e quasi tutti i veicoli hanno quel tipo di avviso. Ad esempio, quando si utilizza una funzione mappa durante la guida, molte auto offrono un avviso:"Questo ti distrae, presta attenzione alla strada".
I produttori hanno anche l'obbligo di tenere a mente il senso di compiacimento che deriva dalla tecnologia di guida durante la progettazione dell'auto. Tesla o qualsiasi altro produttore non può semplicemente dire:"Ehi, fai attenzione, è una tua responsabilità". In realtà devono cercare di inserire qualcosa nel design per assicurarsi che i conducenti stiano attenti. Quindi diversi produttori stanno adottando approcci diversi a questo problema:alcune auto si fermeranno se le tue mani non sono sul volante e altre auto hanno telecamere che inizieranno a emettere segnali acustici se non stai prestando attenzione.
Secondo la legge attuale, se il conducente cade in un incidente e c'è stato un avviso adeguato, e il design stesso è sufficientemente adeguato per mantenere il conducente attento, la casa automobilistica non sarà responsabile. Ma c'è una possibile eccezione qui:c'è una formulazione della regola di responsabilità che è ampiamente adottata in tutto il paese, inclusa la California, dove si svolgerà questo caso. In base a questa regola, l'indagine si basa su ciò che i consumatori si aspettano che faccia il produttore. E le aspettative dei consumatori possono essere fortemente influenzate dal marketing, dalla pubblicità e così via.
Ad esempio, se Tesla pubblicizzasse che il pilota automatico non cade mai in un incidente, e quindi un consumatore cade in un incidente, Tesla sarebbe responsabile per aver frustrato tali aspettative.
In questo caso, l'autista è stato accusato in base all'idea di fare troppo affidamento sul pilota automatico della sua auto. Che cosa dice questo sui nostri presupposti di base sul fatto che gli esseri umani o la tecnologia siano più affidabili?
C'è un'importante distinzione tra eccessiva fiducia e compiacimento. Penso che l'autocompiacimento sia solo una reazione umana naturale alla mancanza di stimoli, in questo caso la mancanza di responsabilità nell'esecuzione di tutti i compiti di guida. Puoi annoiarti e farti cullare da un senso di compiacimento, ma non credo che il comportamento dipenda eccessivamente dalla tecnologia.
L'idea di eccessiva fiducia entra in gioco con la natura potenziale della trasgressione qui. Forse il pilota in questo caso si difenderà dicendo che ha ragionevolmente pensato che l'auto avesse tutto sotto controllo, fosse pienamente in grado di risolvere questo problema, e quindi non doveva preoccuparsi di reagire se le cose fossero andate diversamente. Ora, a quel punto, avrebbe riposto la sua fiducia nella tecnologia invece che nella propria capacità di fermare il veicolo e uscire dal problema in modo sicuro. Se c'è una fede cieca nella tecnologia piuttosto che nel prendere il sopravvento quando avresti potuto farlo, e se sei responsabile di conseguenza, questo diventa un tipo di messaggio molto profondo e interessante che la legge sta inviando.
Pensate che questo cambiamento di responsabilità danneggerà gli affari di aziende come Tesla?
Il grande problema che i produttori di veicoli autonomi come Tesla devono affrontare in questo momento è guadagnare la fiducia dei consumatori quando stanno introducendo una nuova tecnologia sul mercato. La necessità di fiducia nelle fasi iniziali di questi prodotti è estremamente importante. E tutti i produttori sono preoccupati per questo problema perché sanno che se si verificano degli orribili incidenti, i consumatori perderanno la fiducia nel prodotto. Alla fine la tecnologia finirà per prendere il sopravvento; è solo una questione di sapere se è prima piuttosto che dopo. E il tempo è denaro in questo contesto, quindi se si ottiene un'adozione più lenta perché i consumatori sono molto preoccupati per le prestazioni di sicurezza della tecnologia, ciò danneggerà il settore. Ovviamente vogliono evitare questo risultato. Questa tecnologia continuerà a prendere il sopravvento:è solo una questione di quanto tempo ci vorrà perché ciò accada. Ci sono così tanti vantaggi nell'utilizzo di veicoli autonomi, anche nella dimensione della sicurezza.
Riguardo al pilota automatico e alla capacità di guida autonoma completa, Tesla afferma:"Sebbene queste funzioni siano progettate per diventare più efficaci nel tempo, le funzioni attualmente abilitate non rendono il veicolo autonomo". Quali problemi di responsabilità prevede se/quando questi veicoli diventano autonomi?
È una domanda complicata, e questo è il problema che interessa a tutti. Una volta che questi veicoli diventano completamente autonomi, allora c'è solo l'auto. L'essere umano nell'auto non è nemmeno un elemento nella situazione. Quindi la grande domanda è:una volta che quei veicoli si schiantano, chi paga? Penseresti che il produttore sarebbe responsabile, e questo aumenterà il costo di questi veicoli e ne renderà molto più difficile la distribuzione. Ci sono molte persone che pensano che in caso di incidente, il produttore dovrebbe essere sempre responsabile. Sono fortemente scettico su questa conclusione, perché penso che sia una chiamata molto più vicina di quanto la maggior parte delle persone pensi.
In definitiva, questi problemi dipendono dal modo in cui le autorità di regolamentazione federali come la National Highway Traffic Safety Administration regolano il veicolo. Dovranno stabilire uno standard di prestazioni di sicurezza che il produttore deve soddisfare prima di poter distribuire commercialmente il prodotto come completamente autonomo. La domanda è dove le autorità di regolamentazione stabiliscono quello standard e non penso che sia facile ottenere ragione. A quel punto ci sarà un bel dibattito da fare:hanno capito bene o no? Siamo ancora tra qualche anno. Penso che avremo tutti queste conversazioni nel 2025.