Credito:Michigan State University
Stressato? Bisogno di parlare? Rivolgersi a un chatbot per il supporto emotivo potrebbe aiutare.
Jingbo Meng, professore associato di comunicazione di ComArtSci, voleva vedere quanto potessero essere efficaci i chatbot di intelligenza artificiale (AI) nel fornire messaggi di supporto. Quindi ha impostato la ricerca e ha utilizzato una piattaforma di sviluppo di chatbot per testarla.
"I chatbot sono stati ampiamente applicati nel servizio clienti attraverso la comunicazione basata su testo o voce", ha affermato. "È un'estensione naturale pensare a come i chatbot AI possono svolgere un ruolo nel fornire empatia dopo aver ascoltato le storie e le preoccupazioni di qualcuno".
Chiacchierando
All'inizio del 2019, Meng ha iniziato a valutare l'efficacia dei chatbot empatici confrontandoli con la chat umana. Ha seguito la crescita delle app di assistenza sanitaria e benessere digitale e ha assistito alla crescita fenomenale di quelle relative alla salute mentale. La sua precedente collaborazione con i colleghi ingegneri della MSU si è concentrata su un sistema mobile indossabile per rilevare, tracciare e interrogare gli utenti sui marcatori comportamentali di stress e depressione. La collaborazione l'ha ispirata a utilizzare i chatbot che avviano conversazioni con gli utenti quando vengono identificati gli indicatori comportamentali.
"Abbiamo percepito che alcune comunicazioni di chatbot potrebbero funzionare, altre no", ha detto Meng. "Volevo fare più ricerche per capire perché in modo da poter sviluppare messaggi più efficaci da utilizzare all'interno delle app per la salute mentale."
Meng ha reclutato 278 studenti della MSU per il suo studio e ha chiesto loro di identificare i principali fattori di stress che avevano sperimentato nell'ultimo mese. I partecipanti sono stati quindi collegati tramite Facebook Messenger con un partner di chat empatico. A un gruppo è stato detto che avrebbero parlato con un chatbot, un altro ha capito che avrebbero parlato con un essere umano. La ruga? Meng lo ha impostato in modo che solo i chatbot fornissero domande e messaggi, consentendole di misurare se i partecipanti reagivano in modo diverso quando pensavano che il loro partner di chat fosse umano.
Meng ha anche variato il livello di auto-rivelazione reciproca che i partecipanti avrebbero sperimentato durante le loro sessioni di 20 minuti. Alcuni chatbot hanno condiviso le proprie esperienze come un modo per evocare empatia. Altri chatbot hanno semplicemente esposto i propri problemi personali a scapito di non convalidare i partecipanti."
Con l'eccezione dei diversi scenari di auto-rivelazione reciproca, il contenuto e il flusso delle conversazioni sono stati scritti esattamente allo stesso modo per i chatbot e per i partner di chat umani percepiti. I chatbot hanno chiesto ai partecipanti di identificare i fattori di stress. Hanno chiesto come si sentivano i partecipanti. Hanno sondato il motivo per cui i partecipanti pensavano che i fattori di stress li facessero sentire in un certo modo. Quindi i chatbot hanno condiviso le proprie esperienze.
"Sono stati programmati per convalidare e aiutare i partecipanti a superare situazioni stressanti", ha affermato. "Il nostro obiettivo era vedere quanto efficace potesse essere la messaggistica."
Prendersi cura
Meng ha scoperto che, sia che parlasse con un chatbot o con un essere umano, un partecipante doveva sentire il partner di supporto o premuroso. Se questa condizione è soddisfatta, la conversazione riesce a ridurre lo stress.
Il suo studio ha anche rivelato che, indipendentemente dal messaggio, i partecipanti sentivano che gli esseri umani erano più premurosi e solidali di un chatbot.
I suoi scenari sulla reciproca rivelazione di sé raccontavano un'altra storia. I partner umani che si sono rivelati, indipendentemente dal fatto che il loro intento fosse quello di essere empatici o semplicemente di elaborare i propri problemi, hanno contribuito alla riduzione dello stress. Ma i chatbot che si sono rivelati senza offrire supporto emotivo hanno fatto poco per ridurre lo stress di un partecipante, anche meno dei chatbot che non hanno detto nulla.
"Gli esseri umani sono semplicemente più facilmente riconoscibili", ha detto Meng. "Quando parliamo con un altro essere umano, anche quando non convalida le nostre emozioni, possiamo relazionarci in modo più naturale. I chatbot, tuttavia, devono essere più espliciti e inviare messaggi di qualità superiore. Altrimenti, la rivelazione di sé può essere fastidiosa e disattivata -mettere."
Percepire la fonte
Meng ha condotto e analizzato la ricerca con Yue (Nancy) Dai, un'allieva del 2018 del programma di dottorato in Comunicazione della MSU e professore presso la City University di Hong Kong. I loro risultati sono stati pubblicati nel Journal of Computer-Mediated Communication.
Meng ha affermato che lo studio sottolinea che i chatbot utilizzati nelle app per la salute mentale funzionano meglio se percepiti come una fonte veramente premurosa. Ha in programma di seguire lo studio con ulteriori ricerche che esaminino come la messaggistica può essere progettata per aumentare il fattore di cura.
Le app per la salute mentale, ha affermato, non stanno scomparendo e, in effetti, stanno aumentando l'uso e la disponibilità. Mentre la maggior parte delle persone ha accesso a un telefono cellulare, molte non hanno accesso immediato a un terapista o un'assicurazione sanitaria. Le app, ha affermato, possono aiutare le persone a gestire situazioni particolari e possono fornire parametri di riferimento per ulteriori cure di supporto.
"Queste app e chatbot non sostituiranno in alcun modo un essere umano", ha affermato. "Riteniamo che il modello ibrido di chatbot AI e un terapeuta umano sarà molto promettente".