Credito:CC0 di pubblico dominio
Secondo una ricerca dell'Università del Michigan, quando i robot commettono errori, e lo fanno di tanto in tanto, ristabilire la fiducia con i colleghi umani dipende da come le macchine riconoscono gli errori e da quanto appaiano simili a quelle umane.
In uno studio che ha esaminato molteplici strategie di riparazione della fiducia (scuse, smentite, spiegazioni o promesse) i ricercatori hanno scoperto che alcuni approcci diretti ai colleghi umani sono migliori di altri e spesso sono influenzati dall'aspetto dei robot.
"I robot sono sicuramente una tecnologia, ma le loro interazioni con gli esseri umani sono sociali e dobbiamo rendere conto di queste interazioni sociali se speriamo che gli esseri umani si fidino comodamente e facciano affidamento sui loro colleghi robot", ha affermato Lionel Robert, professore associato presso la UM School of Informazioni.
"I robot commettono errori quando lavorano con gli esseri umani, diminuendo la fiducia degli esseri umani in loro. Pertanto, dobbiamo sviluppare modi per riparare la fiducia tra umani e robot. Strategie specifiche di riparazione della fiducia sono più efficaci di altre e la loro efficacia può dipendere da quanto è umano il robot appare."
Per il loro studio pubblicato negli Proceedings of 30th IEEE International Conference on Robot and Human Interactive Communication , Robert e il dottorando Connor Esterwood hanno esaminato in che modo le strategie di riparazione, inclusa una nuova strategia di spiegazioni, influiscono sugli elementi che guidano la fiducia:abilità (competenza), integrità (onestà) e benevolenza (preoccupazione per il fiduciante).
I ricercatori hanno reclutato 164 partecipanti per lavorare con un robot in un ambiente virtuale, caricando scatole su un nastro trasportatore. L'umano era la persona addetta al controllo della qualità, che lavorava a fianco di un robot incaricato di leggere i numeri di serie e caricare 10 scatole specifiche. Un robot era antropomorfo o più umano, l'altro più meccanico nell'aspetto.
I robot sono stati programmati per raccogliere intenzionalmente alcune scatole sbagliate e per fare una delle seguenti dichiarazioni di riparazione fiduciaria:"Mi dispiace di aver preso la scatola sbagliata" (scuse), "Ho scelto la scatola corretta quindi qualcos'altro deve essere andato via sbagliato" (negazione), "Vedo che era il numero di serie sbagliato" (spiegazione) o "Farò meglio la prossima volta e prenderò la scatola giusta" (promessa).
Studi precedenti hanno esaminato scuse, smentite e promesse come fattori di fiducia o affidabilità, ma questo è il primo a considerare le spiegazioni come una strategia di riparazione e ha avuto il maggiore impatto sull'integrità, indipendentemente dall'aspetto del robot.
Quando il robot era più simile a un umano, era ancora più facile ripristinare la fiducia per l'integrità quando venivano fornite spiegazioni e per la benevolenza quando venivano offerte scuse, smentite e spiegazioni.
Come nella ricerca precedente, le scuse dei robot hanno prodotto maggiore integrità e benevolenza rispetto alle smentite. Promette scuse e smentite superate quando si trattava di misure di benevolenza e integrità.
Esterwood ha affermato che questo studio è in corso con ulteriori ricerche in corso che coinvolgono altre combinazioni di riparazioni di fiducia in contesti diversi, con altre violazioni.
"In questo modo possiamo estendere ulteriormente questa ricerca ed esaminare scenari più realistici come si potrebbe vedere nella vita di tutti i giorni", ha affermato Esterwood. "Ad esempio, la spiegazione di un robot barista di ciò che è andato storto e la promessa di fare meglio in futuro le riparazioni si fidano più o meno di un robot da costruzione?"