Credito:Pixabay/CC0 di dominio pubblico
I ricercatori dell'Università del Kentucky, dell'Università della Tecnologia di Sydney e dell'Università dell'Illinois-Chicago hanno pubblicato un nuovo articolo sul Journal of Marketing che esamina la risposta del cliente e le implicazioni sulla soddisfazione dell'utilizzo di agenti di intelligenza artificiale rispetto agli agenti umani.
Lo studio, di prossima pubblicazione sul Journal of Marketing, si intitola "Bad News? Send an AI. Good News? Send a Human" ed è scritto da Aaron Garvey, TaeWoo Kim, Adam Duhachek.
Siamo più indulgenti nei confronti di un agente di intelligenza artificiale (AI) che di un essere umano quando siamo delusi? Apprezzi meno un robot AI che un essere umano quando veniamo aiutati? Una nuova ricerca esamina queste domande e scopre che i consumatori rispondono in modo diverso al trattamento favorevole e sfavorevole da parte di un agente di intelligenza artificiale rispetto a un altro essere umano.
I consumatori e i responsabili del marketing si trovano attualmente in un periodo di transizione tecnologica in cui gli agenti dell'IA stanno sostituendo sempre più i rappresentanti umani. Gli agenti di intelligenza artificiale sono stati adottati in un'ampia gamma di domini di consumatori per gestire le transazioni dei clienti, inclusi i tradizionali servizi di vendita al dettaglio, viaggi, viaggi e residenze e persino servizi legali e medici. Date le capacità avanzate di elaborazione delle informazioni degli agenti di intelligenza artificiale e i vantaggi in termini di costo del lavoro, si prevede che la transizione dai rappresentanti umani per l'amministrazione di prodotti e servizi continuerà. Tuttavia, quali sono le implicazioni per la risposta e la soddisfazione del cliente?
I ricercatori scoprono che quando un prodotto o un'offerta di servizi è peggiore del previsto, i consumatori rispondono meglio quando hanno a che fare con un agente di intelligenza artificiale. Al contrario, per un'offerta migliore del previsto, i consumatori rispondono in modo più favorevole a un agente umano. Garvey spiega che "Questo accade perché gli agenti di intelligenza artificiale, rispetto agli agenti umani, sono percepiti come avere intenzioni personali più deboli quando prendono decisioni. Cioè, poiché un agente di intelligenza artificiale è una macchina non umana, i consumatori in genere non credono che il comportamento di un agente di intelligenza artificiale è guidato dall'egoismo o dalla gentilezza di fondo". Di conseguenza, i consumatori ritengono che gli agenti di intelligenza artificiale manchino di intenzioni egoistiche (che in genere verrebbero punite) in caso di un'offerta sfavorevole e manchino di intenzioni benevole (che sarebbero generalmente ricompensate) in caso di un'offerta favorevole.
Progettare un agente di intelligenza artificiale in modo che appaia più umano può cambiare la risposta dei consumatori. Ad esempio, un robot di servizio che sembra più umano (ad esempio, con la struttura del corpo umano e le caratteristiche facciali) suscita risposte più favorevoli a un'offerta migliore del previsto rispetto a un agente di intelligenza artificiale più simile a una macchina senza caratteristiche umane. Ciò si verifica perché gli agenti di intelligenza artificiale che sono più simili all'uomo sono percepiti come avere intenzioni più forti quando fanno l'offerta.
Cosa significa questo per i responsabili marketing? Kim afferma:"Per un marketer che sta per fornire cattive notizie a un cliente, un rappresentante dell'IA migliorerà la risposta di quel cliente. Questo sarebbe l'approccio migliore per situazioni negative come offerte a prezzi inaspettatamente alti, cancellazioni, ritardi, valutazioni negative, cambiamenti di stato, difetti del prodotto, rifiuti, guasti del servizio ed esaurimento delle scorte. Tuttavia, le buone notizie sono meglio fornite da un essere umano. Risultati inaspettatamente positivi potrebbero includere consegne rapide, sconti, aggiornamenti, pacchetti di servizi, offerte esclusive, premi fedeltà e promozioni per i clienti".
I manager possono applicare i nostri risultati per dare priorità (rispetto al posticipo) delle transizioni del ruolo da umano a IA in situazioni in cui le interazioni negative (rispetto a quelle positive) sono più frequenti. Inoltre, anche quando una transizione di ruolo non viene interamente trasferita a un agente di intelligenza artificiale, il reclutamento selettivo di un agente di intelligenza artificiale per divulgare determinate informazioni negative potrebbe comunque essere vantaggioso. Anche le aziende che sono già passate agli agenti di intelligenza artificiale rivolti ai consumatori, inclusa la moltitudine di applicazioni online e mobili che utilizzano algoritmi basati sull'intelligenza artificiale per creare e amministrare le offerte, trarranno vantaggio dai nostri risultati. La nostra ricerca rivela che gli agenti di intelligenza artificiale dovrebbero essere fatti apparire selettivamente più o meno simili agli umani a seconda della situazione. Per i consumatori, questi risultati rivelano un "punto cieco" quando si ha a che fare con gli agenti di intelligenza artificiale, in particolare quando si considerano le offerte che non soddisfano le aspettative. In effetti, la ricerca rivela un dilemma etico sull'uso degli agenti dell'IA:è appropriato utilizzare l'IA per aggirare la resistenza dei consumatori alle offerte scadenti? "Ci auguriamo che rendere i consumatori consapevoli di questo fenomeno migliorerà la loro qualità decisionale quando si tratta di agenti di intelligenza artificiale, fornendo anche tecniche ai responsabili del marketing, come rendere l'IA più umana in determinati contesti, per gestire questo dilemma", afferma Duhachek.