Credito:CC0 Dominio Pubblico
Tre persone e un robot formano una squadra che fa un gioco. Il robot commette un errore, costando un giro alla squadra. Come ogni buon compagno di squadra, riconosce l'errore.
"Scusate, ragazzi, Ho fatto l'errore questo round, " dice. "So che può essere difficile da credere, ma anche i robot commettono errori."
Questo scenario si è verificato più volte durante uno studio condotto da Yale sugli effetti dei robot sulle interazioni uomo-uomo.
Lo studio, che pubblicherà il 9 marzo nel Atti dell'Accademia Nazionale delle Scienze , hanno mostrato che gli umani dei team che includevano un robot che esprimeva vulnerabilità comunicavano di più tra loro e in seguito riferivano di avere un'esperienza di gruppo più positiva rispetto alle persone che collaboravano con robot silenziosi o con robot che facevano dichiarazioni neutre, come recitare il punteggio del gioco.
"Sappiamo che i robot possono influenzare il comportamento degli esseri umani con cui interagiscono direttamente, ma il modo in cui i robot influenzano il modo in cui gli umani interagiscono tra loro è meno chiaro, " ha detto Margaret L. Traeger, un dottorato di ricerca candidato in sociologia presso lo Yale Institute for Network Science (YINS) e autore principale dello studio. "Il nostro studio mostra che i robot possono influenzare le interazioni uomo-uomo".
Poiché i robot sociali stanno diventando sempre più diffusi nella società umana, lei disse, le persone li incontrano nei negozi, ospedali e altri luoghi di tutti i giorni. Questo rende importante capire come modellano il comportamento umano.
"In questo caso, "Traeger ha detto, "dimostriamo che i robot possono aiutare le persone a comunicare in modo più efficace come una squadra".
I ricercatori hanno condotto un esperimento in cui 153 persone sono state divise in 51 gruppi composti da tre umani e un robot. Ogni gruppo ha giocato a un gioco basato su tablet in cui i membri hanno lavorato insieme per costruire i percorsi ferroviari più efficienti in 30 round. I gruppi sono stati assegnati a una delle tre condizioni caratterizzate da diversi tipi di comportamento del robot. Alla fine di ogni turno, i robot sono rimasti in silenzio, pronunciò un neutro, dichiarazione relativa all'attività (come il punteggio o il numero di round completati), o ha espresso vulnerabilità attraverso uno scherzo, storia personale, o riconoscendo un errore; tutti i robot occasionalmente hanno perso un round.
Le persone hanno collaborato con robot che hanno rilasciato dichiarazioni vulnerabili e hanno trascorso circa il doppio del tempo a parlare tra loro durante il gioco, e hanno riferito di aver apprezzato di più l'esperienza rispetto alle persone negli altri due tipi di gruppi, lo studio ha trovato.
La conversazione tra gli umani aumentava di più durante il gioco quando i robot facevano dichiarazioni vulnerabili rispetto a quando facevano dichiarazioni neutrali. La conversazione tra gli umani era distribuita in modo più uniforme quando il robot era vulnerabile anziché silenzioso.
L'esperimento ha anche mostrato una partecipazione verbale più equa tra i membri del team in gruppi con robot vulnerabili e neutrali rispetto a membri in gruppi con robot silenziosi, suggerendo che la presenza di un robot parlante incoraggia le persone a parlare tra loro in modo più imparziale.
"Siamo interessati a come cambierà la società man mano che aggiungeremo forme di intelligenza artificiale tra di noi, " ha detto Nicholas A. Christakis, Sterling Professore di Scienze Sociali e Naturali. "Mentre creiamo sistemi sociali ibridi di esseri umani e macchine, dobbiamo valutare come programmare gli agenti robotici in modo che non corrodano il modo in cui ci trattiamo a vicenda".
Comprendere l'influenza sociale dei robot negli spazi umani è importante anche quando i robot non svolgono intenzionalmente una funzione sociale, disse Sarah Strohkorb Sebo, un dottorato di ricerca candidato al Dipartimento di Informatica e coautore dello studio.
"Immaginate un robot in una fabbrica il cui compito è distribuire parti ai lavoratori su una catena di montaggio, " ha detto. "Se consegna tutti i pezzi a una persona, può creare un ambiente sociale imbarazzante in cui gli altri lavoratori si chiedono se il robot crede di essere inferiori al compito. I nostri risultati possono informare la progettazione di robot che promuovono l'impegno sociale, partecipazione equilibrata, ed esperienze positive per le persone che lavorano in team."