• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  science >> Scienza >  >> Altro
    Quando i chatbot umani non colgono il segno nelle interazioni del servizio clienti

    Credito:CC0 Dominio Pubblico

    I ricercatori dell'Università di Oxford hanno pubblicato un nuovo documento nel Giornale di Marketing che esamina l'uso dei chatbot nei ruoli del servizio clienti e rileva che quando i clienti sono arrabbiati, i chatbot umani possono avere un impatto negativo sulla soddisfazione del cliente, valutazioni complessive dell'azienda, e successive intenzioni di acquisto.

    I chatbot stanno sempre più sostituendo gli agenti del servizio clienti umani sui siti web delle aziende, pagine social, e servizi di messaggistica. Progettato per imitare gli umani, questi bot hanno spesso nomi umani (ad es. Alexa di Amazon), sembianze umane (ad es. avatar), e la capacità di conversare come gli umani. Il presupposto è che avere qualità simili a quelle umane renda i chatbot più efficaci nei ruoli del servizio clienti. Però, questo studio suggerisce che questo non è sempre il caso.

    Il team di ricerca scopre che quando i clienti sono arrabbiati, l'implementazione di chatbot simili a quelli umani può avere un impatto negativo sulla soddisfazione del cliente, valutazione complessiva dell'impresa, e successive intenzioni di acquisto. Come mai? Perché i chatbot simili agli umani sollevano aspettative non realistiche su quanto saranno utili.

    I ricercatori hanno condotto cinque esperimenti per capire meglio in che modo i chatbot simili a quelli umani influiscono sul servizio clienti.

    Lo studio 1 analizza quasi 35, 000 sessioni di chat tra il chatbot di un'azienda internazionale di telecomunicazioni mobili e i suoi clienti. I risultati mostrano che quando un cliente era arrabbiato, l'aspetto umano del chatbot ha avuto un effetto negativo sulla soddisfazione del cliente.

    Lo studio 2 è una serie di finti scenari e chat del servizio clienti in cui 201 partecipanti erano neutrali o arrabbiati e il chatbot era simile a un umano o non umano. Ancora, i clienti arrabbiati hanno mostrato una soddisfazione complessiva inferiore quando il chatbot era simile a quello umano rispetto a quando non lo era.

    Lo studio 3 dimostra che l'effetto negativo si estende alle valutazioni complessive dell'azienda, ma non quando il chatbot risolve efficacemente il problema (ad es. soddisfa le aspettative). Più di 400 partecipanti arrabbiati si sono impegnati in una chat simulata con un chatbot umano o non umano e i loro problemi sono stati risolti efficacemente o meno durante le interazioni. Come previsto, quando i problemi non sono stati efficacemente risolti, i partecipanti hanno riportato valutazioni inferiori dell'azienda quando hanno interagito con un chatbot simile a quello umano rispetto a uno non umano. Ancora, quando i loro problemi sono stati effettivamente risolti, le valutazioni aziendali erano più alte, senza differenze in base al tipo di chatbot.

    Lo studio 4 è un esperimento con 192 partecipanti che fornisce la prova che questo effetto negativo è guidato dalle maggiori aspettative del chatbot umano. Le persone si aspettano che i chatbot umani siano in grado di funzionare meglio di quelli non umani; ma quelle aspettative non sono soddisfatte, portando a una riduzione delle intenzioni di acquisto.

    Lo studio 5 mostra che l'abbassamento esplicito delle aspettative del cliente sul chatbot umano prima della chat riduce la risposta negativa dei clienti arrabbiati ai chatbot umani. Quando le persone non avevano più aspettative irrealistiche su quanto sarebbe stato utile il chatbot umano, i clienti arrabbiati non li penalizzavano più con valutazioni negative.

    I ricercatori affermano che "I nostri risultati forniscono una chiara tabella di marcia su come distribuire al meglio i chatbot quando si ha a che fare con ostili, clienti arrabbiati o che si lamentano. È importante che i professionisti del marketing progettino con cura i chatbot e considerino il contesto in cui vengono utilizzati, in particolare quando si tratta di gestire i reclami dei clienti o risolvere i problemi." Le aziende dovrebbero tentare di valutare se un cliente è arrabbiato prima di entrare nella chat (ad es. tramite l'elaborazione del linguaggio naturale) e quindi distribuire il chatbot più efficace (simile a quello umano o meno). Se il cliente non è arrabbiato, assegnare un chatbot simile a quello umano; ma se il cliente è arrabbiato, assegnare un chatbot non umano.

    Se questa sofisticata strategia non è tecnicamente fattibile, le aziende potrebbero assegnare chatbot non umani in situazioni di servizio clienti in cui i clienti tendono ad arrabbiarsi, come i centri reclami. Oppure le aziende potrebbero minimizzare le capacità di chatbot umani (ad es. Il chatbot di Slack si presenta dicendo "Cerco di essere utile (ma sono ancora solo un bot. Scusa!" o "Non sono un umano. Solo un bot, un semplice bot, con solo qualche asso nella manica metaforica!"). Queste strategie dovrebbero aiutare a evitare o mitigare la minore soddisfazione del cliente, valutazione complessiva dell'impresa, e successive intenzioni di acquisto segnalate da clienti arrabbiati nei confronti di chatbot umani.


    © Scienza https://it.scienceaq.com