• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Ci fidiamo degli agenti di intelligenza artificiale per mediare i conflitti? Non del tutto

    Credito:CC0 Dominio Pubblico

    Potremmo ascoltare i fatti di Siri o Alexa, o indicazioni da Google Maps o Waze, ma lasceremmo che un agente virtuale abilitato dall'intelligenza artificiale aiuti a mediare i conflitti tra i membri del team? Un nuovo studio dice che non ancora.

    I ricercatori della USC e dell'Università di Denver hanno creato una simulazione in cui un team di tre persone è stato supportato da un avatar di un agente virtuale sullo schermo in una missione progettata per garantire il fallimento e suscitare conflitti. Lo studio è stato progettato per considerare gli agenti virtuali come potenziali mediatori per migliorare la collaborazione del team durante la mediazione dei conflitti.

    Confessarli? Sì. Ma nella foga del momento, ascolteremo agenti virtuali?

    Mentre alcuni ricercatori (Gale Lucas e Jonathan Gratch della USC Viterbi School Engineering e dell'USC Institute for Creative Technologies che hanno contribuito a questo studio), aveva precedentemente scoperto che le interazioni umane individuali con un terapeuta di agenti virtuali hanno prodotto più confessioni, in questo studio "Conflict Mediation in Human-Machine Teaming:Utilizzo di un agente virtuale per supportare la pianificazione e il debriefing della missione, " I membri del team avevano meno probabilità di interagire con un agente virtuale maschio chiamato "Chris" quando si verificava un conflitto.

    I membri partecipanti del team non si sono avvicinati fisicamente al dispositivo (come abbiamo visto gli umani attaccare i robot nei post virali sui social media), ma piuttosto erano meno coinvolti e meno propensi ad ascoltare l'input dell'agente virtuale una volta che si verificava un errore e si verificavano conflitti tra i membri del team.

    Lo studio è stato condotto in un ambiente di accademia militare in cui sono stati progettati 27 scenari per testare come la squadra che includeva un agente virtuale avrebbe reagito al fallimento e al conflitto assicurativo. L'agente virtuale non è stato ignorato in alcun modo. Lo studio ha rilevato che le squadre hanno risposto socialmente all'agente virtuale durante la pianificazione della missione loro assegnata (annuendo, sorridendo e riconoscendo l'input dell'agente virtuale ringraziandolo) ma più a lungo l'esercizio procedeva, il loro coinvolgimento con l'agente virtuale è diminuito. I partecipanti non hanno completamente incolpato l'agente virtuale per il loro fallimento.

    "La coesione del team quando si eseguono insieme compiti complessi è un fattore molto complesso e importante, "dice l'autore principale, Kerstin Haring, un assistente professore di informatica presso l'Università di Denver.

    "I nostri risultati mostrano che gli agenti virtuali e potenzialmente i robot sociali potrebbero essere un buon mediatore di conflitti in tutti i tipi di team. Sarà molto interessante scoprire gli interventi e le risposte sociali per integrare perfettamente gli agenti virtuali nei team umani per farli funzionare meglio ."

    Coautore dello studio, Gale Lucas, Professore assistente di ricerca di informatica presso la USC, e ricercatore presso l'Istituto per le tecnologie creative, aggiunge che alcuni feedback dei partecipanti allo studio indicano che percepivano gli agenti virtuali come neutrali e imparziali. Vorrebbe continuare il lavoro per vedere se gli agenti virtuali possono essere applicati "per aiutarci a prendere decisioni migliori" e premere "cosa serve per farci fidare degli agenti virtuali".

    Mentre questo studio è stato condotto in un'accademia militare con strutture particolari, i ricercatori sperano di sviluppare questo progetto per migliorare i processi di squadra in tutti i tipi di ambienti di lavoro.


    © Scienza https://it.scienceaq.com