Assistente professore di psicologia Dr. Nathan Tenhundfeld, sinistra, di recente costituzione l'Advanced Teaming, Tecnologia, Automazione, e Computing Lab per studiare il teaming uomo-macchina. Credito:Michael Mercier
Si chiama la valle misteriosa. Coloro che sono fan dello show della HBO "Westworld" o che hanno visto il film "Ex Machina" potrebbero già avere familiarità con il fenomeno. Ma per chi non lo è, è essenzialmente l'idea che gli umani siano a loro agio con i robot che hanno caratteristiche umanoidi, ma diventa molto a disagio quando il robot sembra quasi, ma non esattamente, come un essere umano.
Per il dottor Nathan Tenhundfeld, però, la misteriosa valle è solo uno dei tanti fattori che deve prendere in considerazione durante la ricerca sull'interazione uomo-automazione come assistente professore presso il Dipartimento di Psicologia dell'Università dell'Alabama a Huntsville (UAH).
"Siamo a un punto unico con lo sviluppo della tecnologia in cui i sistemi o le piattaforme automatizzati non sono più uno strumento ma un compagno di squadra che è incorporato nelle nostre esperienze quotidiane, ", dice. "Quindi stiamo esaminando piattaforme commerciali che offrono gli stessi sistemi ma in forme diverse per vedere se un determinato aspetto o caratteristica influisce sull'utente e in che modo".
Prendi ad esempio, la recente spinta del Dipartimento della Difesa degli Stati Uniti per incorporare l'automazione nella guerra. Come concetto, ha senso:più robot abbiamo a combattere guerre, minore è il costo per la vita umana. Ma in pratica, è un po' più complesso. Come dovrebbe essere un robot da guerra? Una persona? Una macchina?
Per rispondere a queste domande, Il Dr. Tenhundfeld ha collaborato con un collega della U.S. Air Force Academy, dove ha svolto attività di ricerca come borsista post-dottorato, utilizzare "un enorme database di robot" in modo da determinare in che modo i vari componenti potrebbero influenzare la percezione delle capacità di un robot. "Vogliamo sapere cose come, un robot con ruote o un binario si adatta meglio alle nostre aspettative su ciò che dovremmo inviare in guerra contro un robot umanoide?" dice. "E, avere una faccia sul robot influisce sul fatto che vogliamo metterlo in pericolo?"
Uno studente dell'ATTAC Lab partecipa a una simulazione di volo. Credito:Michael Mercier
Anche se ci fossero risposte facili, cosa che non ci sono, c'è un altro fattore altrettanto importante da considerare oltre l'interfaccia utente del robot:la fiducia. Affinché un robot sia efficace, l'utente deve fidarsi delle informazioni che sta fornendo. Spiegare, Il Dr. Tenhundfeld indica la ricerca che ha condotto sulla Tesla Model X mentre era all'Accademia. Guardando nello specifico la funzione di parcheggio automatico dell'auto, lui e il suo team volevano determinare la disponibilità dell'utente a lasciare che l'auto portasse a termine il suo compito in funzione della sua preferenza per l'assunzione di rischi o della fiducia nelle sue capacità.
"I dati suggeriscono che i veicoli automatizzati tendono ad essere più sicuri degli umani, ma agli umani non piace rinunciare al controllo, "dice con una risata. "Quindi abbiamo avuto questo schema in cui all'inizio c'erano alti tassi di intervento, ma quando hanno sviluppato fiducia nel sistema, dopo che non era così nuovo e ha iniziato a soddisfare le loro aspettative, hanno iniziato a fidarsi di più e i tassi di intervento sono diminuiti".
Il rovescio della medaglia, però, è il potenziale di empatia in, o attaccamento a, un particolare sistema automatizzato in cui gli utenti potrebbero aver sviluppato fiducia. Per illustrare questo concetto, racconta un caso di studio di squadre di smaltimento di esplosivi che impiegano robot per far esplodere bombe in sicurezza. "Quando devono rimandare indietro i robot per essere riparati, hanno un problema quando gli viene dato un robot diverso, " dice. "Quindi hanno riposto questa fiducia in un robot specifico anche se l'intelligenza/capacità è la stessa in tutti i robot".
E per timore che cominci a sembrare che ce ne sia già abbastanza per il dottor Tenhundfeld da tenere in considerazione, c'è anche fiducia situazionale, che si trova da qualche parte tra la fiducia e l'eccessiva fiducia. In questo scenario, un utente può sviluppare un certo livello di fiducia nel suo insieme nel tempo, ma poi si rendono conto che non si fidano di alcuni aspetti tanto quanto di altri. "Diciamo che ho un sistema automatizzato, o robot, fornire informazioni in un ambiente di pianificazione delle missioni, e lo rovina, " dice. "Potrei non fidarmi in un ambiente diverso, come sul campo di battaglia, anche se ha una forma fisica diversa per l'uso in quell'ambiente, e può essere distintamente capace sul campo di battaglia."
In breve, la natura sempre più digitale del nostro mondo introduce un elenco apparentemente infinito di considerazioni quando si tratta di garantire che i sistemi automatizzati possano soddisfare con successo le esigenze umane, tutte cose che il Dr. Tenhundfeld deve prendere in considerazione con la ricerca che sta facendo nel suo Advanced Teaming, Tecnologia, Automazione, e Laboratorio di Informatica, o ATTAC Lab. Ma dato il ruolo di UAH come partner accademico di questo settore emergente, è una sfida che lui ei suoi colleghi ricercatori hanno raccolto. "Le aziende si concentrano sull'essere le prime a commercializzare un prodotto, " dice. "Li aiutiamo a migliorare il prodotto in modo che funzioni bene per l'utente".