Credito:CC0 Dominio Pubblico
I consigli di esperti di intelligenza artificiale (AI) possono essere altrettanto influenti quanto quelli di esperti umani, secondo un team di ricercatori della Penn State. Però, portatori sia umani che robotici di cattive notizie possono scoprire che perdono influenza quando le loro opinioni negative sono contrarie a una folla positiva.
In uno studio, i ricercatori hanno scoperto che le macchine che generano raccomandazioni, o esperti di intelligenza artificiale, erano influenti quanto gli esperti umani quando gli esperti di intelligenza artificiale consigliavano quale foto un utente avrebbe dovuto aggiungere al proprio profilo aziendale online. Però, sia gli esperti di intelligenza artificiale che quelli umani non sono riusciti a modificare le opinioni se il loro feedback era negativo e andava contro l'opinione popolare tra gli altri utenti, disse S. Shyam Sundar, James P. Jimirro Professore di Media Effects presso il Donald P. Bellisario College of Communications e co-direttore del Media Effects Research Laboratory.
domenica, che è anche un affiliato del Penn State's Institute for Computational and Data Sciences (ICDS), ha detto che i risultati possono mostrare che ci sono momenti in cui l'opinione della folla - chiamato anche effetto carrozzone - può battere le opinioni degli esperti, siano essi AI o umani. Ha aggiunto che sia gli esperti basati sull'intelligenza artificiale che quelli umani con una valutazione positiva su un'immagine del profilo aziendale sono stati in grado di influenzare la valutazione della foto da parte degli utenti. Però, se agli esperti non piacesse la fotografia e la folla ne offrisse una valutazione positiva, l'influenza degli esperti svanì.
Poiché le persone utilizzano sempre più i social media per cercare feedback, spunti che suggeriscono opinioni di esperti e l'effetto carrozzone possono essere fattori importanti nell'influenzare le decisioni, secondo Jinping Wang, dottorando in comunicazione di massa e primo autore dello studio.
"Oggi, spesso ci rivolgiamo a piattaforme online per le opinioni di altre persone, come i nostri colleghi ed esperti, prima di prendere una decisione, " ha detto Wang. "Per esempio, potremmo rivolgerci a tali fonti quando vogliamo sapere quali film guardare, o quali foto caricare sulle piattaforme di social media."
Gli esperti di intelligenza artificiale sono spesso meno costosi degli esperti umani e possono anche lavorare 24 ore al giorno, quale, Wang suggerisce, potrebbe renderli attraenti per le aziende online.
I ricercatori hanno anche scoperto che lo stato del gruppo dell'IA, in questo caso, l'origine nazionale è stata designata, non sembra influenzare l'accettazione della sua raccomandazione da parte di una persona. Negli esperti umani, però, un esperto di origine nazionale simile che offriva una valutazione negativa di una fotografia tendeva ad essere più influente di un esperto umano di un paese sconosciuto che offriva una valutazione negativa simile di una fotografia.
Mentre i risultati che suggeriscono lo stato del gruppo potrebbero non influire sul fatto che una persona apprezzi il giudizio degli esperti di intelligenza artificiale suona come una buona notizia, Sundar suggerisce che gli stessi pregiudizi culturali potrebbero essere ancora al lavoro nell'esperto di intelligenza artificiale, ma potrebbero essere nascosti nei dati di programmazione e di addestramento.
"Può essere sia positivo che negativo, perché tutto dipende da cosa si alimenta all'intelligenza artificiale, ", ha affermato Sundar. "Anche se è bene avere fiducia nella capacità dell'IA di trascendere i pregiudizi culturali, dobbiamo tenere a mente che se alleni l'intelligenza artificiale su immagini di una cultura, potrebbero dare consigli fuorvianti su immagini destinate all'uso in altri contesti culturali".
I ricercatori, che riportano le loro scoperte in un prossimo numero di Computer nel comportamento umano , ha reclutato 353 persone attraverso un servizio di crowdsourcing online per prendere parte allo studio. I partecipanti sono stati selezionati in modo casuale per visualizzare uno screenshot di un sito Web che offriva consigli agli utenti per le foto del profilo aziendale. Ai partecipanti è stato anche detto che il sito Web consentiva feedback da altri utenti della piattaforma, oltre a valutatori esperti. Gli screenshot rappresentavano le varie condizioni studiate dai ricercatori, compreso se i valutatori esperti erano umani o AI, se il loro feedback è stato positivo o negativo e se la fonte del valutatore proveniva da un simile, identità nazionale diversa o sconosciuta.
Nel futuro, i ricercatori hanno in programma di indagare più a fondo le dinamiche di influenza del gruppo ed esaminare se il genere dell'esperto gioca un ruolo nell'influenzare l'opinione.