Credito:CC0 di pubblico dominio
La persona utile che ti guida attraverso il tuo acquisto online potrebbe non essere affatto una persona.
Con l'avanzare dell'intelligenza artificiale e dell'elaborazione del linguaggio naturale, spesso non sappiamo se stiamo parlando con una persona o un chatbot basato sull'intelligenza artificiale, afferma Tom Kelleher, Ph.D., professore di pubblicità presso il College of Journalism dell'Università della Florida e Comunicazioni. Ciò che conta più di chi (o cosa) si trova dall'altra parte della chat, ha scoperto Kelleher, è l'umanità percepita dell'interazione.
Con i bot testuali che stanno diventando onnipresenti e l'emergere di sistemi vocali basati sull'intelligenza artificiale, i consumatori di qualsiasi cosa, dalle scarpe alle assicurazioni, potrebbero ritrovarsi a parlare con non umani. Le aziende dovranno decidere quando i bot sono appropriati ed efficaci e quando non lo sono. Ciò ha portato Kelleher, insieme ai colleghi dell'UF, del Politecnico della California e dell'Università del Connecticut, a sviluppare una misurazione per l'umanità percepita. Hanno condiviso i loro risultati sulla rivista Computers in Human Behaviour .
Nello studio, i partecipanti hanno chattato con bot o agenti umani di aziende come Express, Amazon e Best Buy e li hanno valutati in base all'umanità. Sessantatré dei 172 partecipanti non sono stati in grado di identificare se stessero interagendo con un essere umano o una macchina. Ma indipendentemente dal fatto che l'interazione prevedesse l'intelligenza artificiale o meno, punteggi più alti di umanità percepita hanno portato a una maggiore fiducia dei consumatori nelle aziende.
"Se le persone si sentivano come se fosse umano, con un'intelligenza artificiale davvero buona o con una persona reale, allora si sentivano come se l'organizzazione stesse investendo nella relazione. Direbbero:'Ok, questa azienda ci sta davvero provando. Hanno dedicare un po' di tempo o risorse in questo, e quindi mi fido dell'organizzazione'", ha detto Kelleher.
Kelleher ha iniziato a studiare come la lingua influisca sulla fiducia dei clienti più di un decennio fa, quando la cultura dei blog ha introdotto un approccio colloquiale alle attività linguistiche soffocanti e soffocanti con cui tendevano a picchiare i propri clienti. Le aziende hanno notato che man mano che il gergo svaniva, la fiducia, la soddisfazione e l'impegno dei consumatori crescevano. Il nuovo studio mostra che lo stesso vale per i chatbot e altre interazioni online e può essere applicato sia ai robot che agli esseri umani. ("Un agente può essere così programmato che le persone si sentono come se stessero parlando a una macchina", ha spiegato.)
Man mano che le interfacce basate sull'intelligenza artificiale sbocciano, anche espandendosi per includere avatar animati che sembrano umani, seguiranno problemi etici. Le aziende dovrebbero rivelare quando i clienti interagiscono con un agente non umano? Cosa succede se l'assistente è un ibrido:una persona assistita dall'IA? Ci sono aree in cui i consumatori non accetteranno i bot, come l'assistenza sanitaria, o situazioni in cui potrebbero preferire un non umano?
"Se sto solo cercando di ottenere un preventivo per l'assicurazione, preferirei quasi mettere qualcosa in un'app piuttosto che fare due chiacchiere sul tempo. Ma più tardi, se la mia casa si allaga, vorrò parlare con una persona reale", ha detto Kelleher. "Con l'evoluzione del metaverso, capire quando impiegare l'IA e quando impiegare persone reali sarà una decisione aziendale sempre più importante".