Credito:CC0 di pubblico dominio
Non è un segreto, l'intelligenza artificiale (AI) sta cambiando il gioco del servizio clienti.
La società è in un periodo di transizione tecnologica in cui gli agenti dell'IA stanno sostituendo sempre più i rappresentanti dal vivo. Sono stati adottati in un'ampia gamma di domini di consumo, dalla tradizionale condivisione di vendita al dettaglio, viaggi, corse e residenza ai servizi legali e medici.
Date le capacità di elaborazione avanzate e i vantaggi in termini di costi di manodopera, questa transizione dovrebbe continuare.
Ma quali sono le implicazioni per la risposta e la soddisfazione del cliente?
Siamo più indulgenti nei confronti di un bot AI che di un agente dal vivo quando siamo delusi? Meno riconoscente quando veniamo aiutati?
I ricercatori dell'Università del Kentucky, dell'Università dell'Illinois-Chicago e dell'Università della Tecnologia di Sydney hanno condotto uno studio per esaminare queste domande.
Lo studio, in uscita sul Journal of Marketing —si intitola "Bad News? Send an AI. Good News? Send a Human" ed è scritto da Aaron Garvey, TaeWoo Kim e Adam Duhachek.
"È iniziato con il desiderio di capire se abbiamo un 'punto cieco' quando negoziamo con un'IA invece che con un essere umano. In particolare, un punto cieco che consente all'IA di farla franca con un'offerta che non accetteremmo da un essere umano," Garvey, professore di marketing al Gatton College of Business and Economics, ha affermato. "L'intelligenza artificiale sembra già ovunque, ma col passare del tempo sostituirà ancora più rappresentanti umani. Volevo capire se questo lascia i consumatori aperti allo sfruttamento attraverso tali punti ciechi e come possiamo affrontarlo eticamente andando avanti."
Secondo lo studio, quando un prodotto o un'offerta di servizi è peggiore del previsto, i consumatori rispondono meglio a un agente di intelligenza artificiale. Tuttavia, per un'offerta migliore del previsto, i consumatori rispondono in modo più favorevole a un agente reale.
"Questo accade perché si ritiene che gli agenti di intelligenza artificiale abbiano intenzioni personali più deboli quando prendono decisioni", ha affermato Garvey. "Dato che un agente di intelligenza artificiale è una macchina non umana, i consumatori in genere non credono che il suo comportamento sia guidato dall'egoismo o dalla gentilezza sottostante."
In conclusione, i consumatori ritengono che gli agenti di IA manchino di intenzioni egoistiche (che in genere verrebbero punite) nel caso di un'offerta sfavorevole e manchino di intenzioni benevole (che in genere verrebbero ricompensate) nel caso di un'offerta favorevole.
Tuttavia, la progettazione di un agente di intelligenza artificiale in modo che appaia più simile all'uomo può cambiare la risposta dei consumatori. Ad esempio, un robot di servizio con struttura corporea e tratti del viso suscita risposte più favorevoli a un'offerta migliore del previsto.
"Ciò accade perché gli agenti di intelligenza artificiale che sono più simili agli umani sono percepiti come avere intenzioni più forti", ha detto Garvey.
Cosa significano questi risultati per i responsabili marketing?
"Per un marketer che sta per fornire cattive notizie a un cliente, un rappresentante dell'IA migliorerà la risposta di quel cliente. Questo sarebbe l'approccio migliore per situazioni negative come offerte a prezzi inaspettatamente alti, cancellazioni, ritardi, valutazioni negative, cambiamenti di stato, difetti del prodotto, rifiuti, guasti del servizio ed esaurimento scorte", ha spiegato Kim. "Tuttavia, le buone notizie vengono fornite al meglio da un essere umano. Risultati inaspettatamente positivi potrebbero includere consegne accelerate, sconti, aggiornamenti, pacchetti di servizi, offerte esclusive, premi fedeltà e promozioni per i clienti."
Per i consumatori, questi risultati rivelano un "punto cieco" quando si tratta di agenti di intelligenza artificiale, in particolare quando si considerano offerte che non soddisfano le aspettative.
"Ci auguriamo che rendere i consumatori consapevoli di questo fenomeno migliorerà la loro qualità decisionale quando si tratta di agenti di intelligenza artificiale, fornendo anche tecniche ai responsabili del marketing, come rendere l'IA più umana in determinati contesti, per gestire questo dilemma", ha affermato Duhachek.