Credito:Andrey_Popov/Shutterstock
I robot sono sempre più presenti nella nostra vita quotidiana. Possono essere incredibilmente utili (arti bionici, tosaerba robotizzati o robot che consegnano pasti alle persone in quarantena) o semplicemente divertenti (cani robotici, giocattoli danzanti e droni acrobatici). L'immaginazione è forse l'unico limite a ciò che i robot potranno fare in futuro.
Cosa succede, però, quando i robot non fanno quello che vogliamo o lo fanno in un modo che causa danni? Ad esempio, cosa succede se un braccio bionico è coinvolto in un incidente di guida?
Gli incidenti con i robot stanno diventando una preoccupazione per due motivi. In primo luogo, l'aumento del numero di robot vedrà naturalmente un aumento del numero di incidenti in cui sono coinvolti. In secondo luogo, stiamo migliorando nella costruzione di robot più complessi. Quando un robot è più complesso, è più difficile capire perché qualcosa è andato storto.
La maggior parte dei robot funziona con varie forme di intelligenza artificiale (AI). Le IA sono in grado di prendere decisioni simili a quelle umane (sebbene possano prendere quelle oggettivamente buone o cattive). Queste decisioni possono riguardare un numero qualsiasi di cose, dall'identificazione di un oggetto all'interpretazione del discorso.
Le IA sono addestrate a prendere queste decisioni per il robot sulla base di informazioni provenienti da vasti set di dati. Le IA vengono quindi testate per verificarne l'accuratezza (quanto bene fanno ciò che vogliamo che facciano) prima di impostare l'attività.
Le IA possono essere progettate in diversi modi. Ad esempio, considera il robot aspirapolvere. Potrebbe essere progettato in modo tale che ogni volta che urta una superficie, reindirizza in una direzione casuale. Al contrario, potrebbe essere progettato per mappare l'ambiente circostante per trovare ostacoli, coprire tutte le aree di superficie e tornare alla sua base di ricarica. Mentre il primo vuoto riceve input dai suoi sensori, il secondo sta tracciando quell'input in un sistema di mappatura interno. In entrambi i casi, l'IA sta raccogliendo informazioni e prendendo una decisione al riguardo.
Le cose più complesse di cui è capace un robot, più tipi di informazioni deve interpretare. Potrebbe anche valutare più fonti di un tipo di dati, come, nel caso di dati uditivi, una voce dal vivo, una radio e il vento.
Man mano che i robot diventano più complessi e sono in grado di agire su una varietà di informazioni, diventa ancora più importante determinare su quali informazioni ha agito il robot, in particolare quando viene causato un danno.
Gli incidenti accadono
Come con qualsiasi prodotto, le cose possono e vanno male con i robot. A volte si tratta di un problema interno, ad esempio il robot non riconosce un comando vocale. A volte è esterno:il sensore del robot è stato danneggiato. E a volte possono essere entrambe le cose, come il robot che non è progettato per lavorare sui tappeti e "inciampare". Le indagini sugli incidenti dei robot devono esaminare tutte le potenziali cause.
Sebbene possa essere scomodo se il robot viene danneggiato quando qualcosa va storto, siamo molto più preoccupati quando il robot causa danni o non riesce a mitigare il danno a una persona. Ad esempio, se un braccio bionico non riesce ad afferrare una bevanda calda, facendola cadere addosso al proprietario; o se un robot di cura non riesce a registrare una chiamata di soccorso quando l'utente fragile è caduto.
Perché l'indagine sugli incidenti con robot è diversa da quella sugli incidenti umani? In particolare, i robot non hanno motivazioni. Vogliamo sapere perché un robot ha preso la decisione che ha preso in base al particolare insieme di input che aveva.
Nell'esempio del braccio bionico, c'è stata una cattiva comunicazione tra l'utilizzatore e la mano? Il robot ha confuso più segnali? Bloccare in modo imprevisto? Nell'esempio della persona che cade, il robot potrebbe non "sentire" la richiesta di aiuto da un ventilatore rumoroso? Oppure ha avuto problemi a interpretare il discorso dell'utente?
La scatola nera
L'indagine sugli incidenti con i robot ha un vantaggio chiave rispetto alle indagini sugli incidenti umani:c'è il potenziale per un testimone integrato. Gli aeroplani commerciali hanno un testimone simile:la scatola nera, costruita per resistere a incidenti aerei e fornire informazioni sul motivo dell'incidente. Queste informazioni sono incredibilmente preziose non solo per comprendere gli incidenti, ma anche per impedire che si ripetano.
Nell'ambito di RoboTIPS, un progetto incentrato sull'innovazione responsabile per i robot sociali (robot che interagiscono con le persone), abbiamo creato quella che chiamiamo la scatola nera etica:una registrazione interna degli input del robot e delle azioni corrispondenti. La scatola nera etica è progettata per ogni tipo di robot in cui abita ed è costruita per registrare tutte le informazioni su cui il robot agisce. Può trattarsi di attività vocale, visiva o persino di onde cerebrali.
Stiamo testando la scatola nera etica su una varietà di robot sia in laboratorio che in condizioni di incidente simulato. L'obiettivo è che la scatola nera etica diventi lo standard nei robot di tutte le marche e applicazioni.
Mentre i dati registrati dalla scatola nera etica devono ancora essere interpretati in caso di incidente, avere questi dati in primo luogo è fondamentale per permetterci di indagare.
Il processo di indagine offre la possibilità di garantire che gli stessi errori non si ripetano due volte. La scatola nera etica è un modo non solo per costruire robot migliori, ma per innovare responsabilmente in un campo eccitante e dinamico.