• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Le chiacchiere sulla spazzatura fanno male, anche quando viene da un robot

    I ricercatori della Carnegie Mellon University hanno dimostrato che le persone che giocano con un robot soffrono in termini di prestazioni quando il robot le critica. Credito:Carnegie Mellon University

    Le chiacchiere trash ha una storia lunga e colorata di avversari di gioco agitati, e ora i ricercatori della Carnegie Mellon University hanno dimostrato che le parole scoraggianti possono essere perturbanti anche se pronunciate da un robot.

    Il discorso spazzatura nello studio è stato decisamente mite, con espressioni come "Devo dire che sei un giocatore terribile, " e "Nel corso del gioco il tuo modo di giocare è diventato confuso". le persone che hanno giocato con il robot, un robot umanoide disponibile in commercio noto come Pepper, hanno ottenuto risultati peggiori quando il robot li ha scoraggiati e meglio quando il robot li ha incoraggiati.

    L'autore principale Aaron M. Roth ha affermato che alcuni dei 40 partecipanti allo studio erano tecnicamente sofisticati e comprendevano perfettamente che una macchina era la fonte del loro disagio.

    "Un partecipante ha detto, 'Non mi piace quello che sta dicendo il robot, ma questo è il modo in cui è stato programmato, quindi non posso biasimarlo, '" ha detto Roth, che ha condotto lo studio mentre era studente di master al CMU Robotics Institute.

    Ma i ricercatori hanno scoperto che, globale, le prestazioni umane sono diminuite indipendentemente dalla sofisticatezza tecnica.

    Lo studio, presentato il mese scorso alla IEEE International Conference on Robot &Human Interactive Communication (RO-MAN) a New Delhi, India, è un allontanamento dai tipici studi di interazione uomo-robot, che tendono a concentrarsi su come gli esseri umani e i robot possono lavorare meglio insieme.

    "Questo è uno dei primi studi sull'interazione uomo-robot in un ambiente in cui non stanno cooperando, " ha detto il co-autore Fei Fang, un assistente professore presso l'Istituto per la ricerca sul software. Ha enormi implicazioni per un mondo in cui si prevede che il numero di robot e dispositivi Internet of Things (IoT) con capacità di intelligenza artificiale cresca in modo esponenziale. "Possiamo aspettarci che gli assistenti domestici siano cooperativi, " lei disse, "ma in situazioni come lo shopping online, potrebbero non avere gli stessi obiettivi che abbiamo noi".

    Lo studio è stato il risultato di un progetto studentesco in Metodi di intelligenza artificiale per il bene sociale, un corso che Fang insegna. Gli studenti volevano esplorare gli usi della teoria dei giochi e della razionalità limitata nel contesto dei robot, così hanno progettato uno studio in cui gli esseri umani avrebbero gareggiato contro un robot in un gioco chiamato "Guardie e tesori". Un cosiddetto gioco di Stackelberg, i ricercatori lo usano per studiare la razionalità. Questo è un tipico gioco utilizzato per studiare l'interazione difensore-attaccante nella ricerca sui giochi di sicurezza, un'area in cui Fang ha svolto un ampio lavoro.

    Ogni partecipante ha giocato 35 volte con il robot, mentre si immerge nelle parole incoraggianti del robot o si fa cantare le orecchie con commenti sprezzanti. Sebbene la razionalità dei giocatori umani sia migliorata con l'aumentare del numero di partite giocate, quelli che sono stati criticati dal robot non hanno ottenuto un punteggio altrettanto buono di quelli che sono stati elogiati.

    È risaputo che le prestazioni di un individuo sono influenzate da ciò che dicono gli altri, ma lo studio mostra che anche gli umani rispondono a ciò che dicono le macchine, disse Afsaneh Doryab, uno scienziato di sistemi presso lo Human-Computer Interaction Institute (HCII) della CMU durante lo studio e ora un assistente professore in Engineering Systems and Environment presso l'Università della Virginia. La capacità di questa macchina di fornire risposte potrebbe avere implicazioni per l'apprendimento automatico, trattamento della salute mentale e persino l'uso di robot come compagni, lei disse.

    Il lavoro futuro potrebbe concentrarsi sull'espressione non verbale tra robot e umani, disse Roth, ora un dottorato di ricerca studente presso l'Università del Maryland. Fang suggerisce che è necessario imparare di più su come i diversi tipi di macchine, ad esempio, un robot umanoide rispetto a una scatola di computer potrebbe invocare risposte diverse negli esseri umani.


    © Scienza https://it.scienceaq.com