Imparare come le persone interagiscono con l'IA è un passo importante nell'integrazione delle macchine nella società in modo vantaggioso. Credito:Pixabay
Imparare come le persone interagiscono con le macchine abilitate dall'intelligenza artificiale e utilizzare tale conoscenza per migliorare la fiducia delle persone nell'IA può aiutarci a vivere in armonia con il numero sempre crescente di robot, chatbot e altre macchine intelligenti in mezzo a noi, secondo un ricercatore della Penn State.
In un articolo pubblicato nell'ultimo numero del Journal of Computer-Mediated Communication, S. Shyam Sundar, James P. Jimirro Professore di Media Effects presso il Donald P. Bellisario College of Communications e co-direttore del Media Effects Research Laboratory, ha proposto un modo, o quadro, studiare l'intelligenza artificiale, che può aiutare i ricercatori a indagare meglio su come le persone interagiscono con l'intelligenza artificiale, o Interazione uomo-IA (HAII).
"Questo è un tentativo di esaminare sistematicamente tutti i modi in cui l'intelligenza artificiale potrebbe influenzare psicologicamente gli utenti, soprattutto in termini di fiducia, "disse Sundar, che è anche un affiliato del Penn State Institute for Computational and Data Sciences (ICDS). "Auspicabilmente, il modello teorico avanzato in questo documento fornirà ai ricercatori un quadro, così come un vocabolario, per studiare gli effetti psicologici sociali dell'IA".
Il framework identifica due percorsi, segnali e azioni, su cui gli sviluppatori di intelligenza artificiale possono concentrarsi per acquisire fiducia e migliorare l'esperienza dell'utente, disse Sundar. I segnali sono segnali che possono innescare una serie di risposte mentali ed emotive da parte delle persone.
"Il percorso di spunto si basa su indicatori superficiali di come appare l'IA o cosa fa apparentemente, " Lui ha spiegato.
Sundar ha aggiunto che ci sono diversi indizi che influenzano se gli utenti si fidano dell'IA. I segnali possono essere ovvi come l'uso di caratteristiche simili a quelle umane, come un volto umano che hanno alcuni robot, o una voce umana che usano gli assistenti virtuali come Siri e Alexa.
Altri segnali possono essere più sottili, come una dichiarazione sull'interfaccia che spiega come funziona il dispositivo, come quando Netflix spiega perché consiglia un determinato film agli spettatori.
Ma, ciascuno di questi segnali può innescare scorciatoie mentali distinte o euristiche, secondo Sundar.
"Quando un'intelligenza artificiale viene identificata dall'utente come una macchina piuttosto che come un essere umano, come spesso accade nei chatbot moderni, fa scattare la 'macchina euristica, " o una scorciatoia mentale che ci porta ad applicare automaticamente tutti gli stereotipi che abbiamo sulle macchine, " ha detto Sundar. "Potremmo pensare che le macchine siano accurate e precise, ma potremmo anche pensare a computer e macchine come freddi e inflessibili." Questi stereotipi a loro volta determinano quanto ci fidiamo del sistema di intelligenza artificiale.
Sundar ha suggerito che i sistemi di pilota automatico negli aerei sono un esempio di come l'eccessiva fiducia nell'IA può portare a ripercussioni negative. I piloti possono fidarsi così implicitamente del sistema di pilota automatico da abbassare la guardia e non essere preparati a cambiamenti improvvisi nelle prestazioni dell'aereo o malfunzionamenti che richiederebbero il loro intervento. Cita questo tipo di "pregiudizio dell'automazione" come indicazione della nostra profonda fiducia nelle prestazioni delle macchine.
D'altra parte, L'intelligenza artificiale può anche innescare pregiudizi negativi per alcune persone.
"L'opposto del bias di automazione sarebbe l'avversione all'algoritmo, " ha detto Sundar. "Ci sono persone che hanno solo un'avversione perché, forse in passato, sono stati bruciati da un algoritmo e ora diffidano profondamente dell'IA. Probabilmente sono stati ingannati dai "deepfake" che sono video fabbricati creati utilizzando la tecnologia AI, oppure hanno ricevuto una raccomandazione di prodotto sbagliata da un sito di e-commerce, o sentivano che la loro privacy era stata invasa dall'intelligenza artificiale che curiosava nelle loro ricerche e acquisti precedenti."
Sundar ha consigliato agli sviluppatori di prestare particolare attenzione ai suggerimenti che potrebbero offrire agli utenti.
"Se fornisci indicazioni chiare sull'interfaccia, puoi aiutare a modellare il modo in cui gli utenti rispondono, ma se non dai buoni spunti, lascerai che l'esperienza precedente e le teorie popolari dell'utente, o nozioni ingenue, sugli algoritmi da subentrare, " ha detto Sunda.
Oltre a fornire spunti, la capacità dell'IA di interagire con le persone può anche modellare l'esperienza dell'utente, secondo Sundar. Lo chiama il "percorso d'azione".
"Il percorso d'azione riguarda davvero la collaborazione, " ha detto Sundar. "Le IA dovrebbero effettivamente impegnarsi e lavorare con noi. La maggior parte dei nuovi strumenti di intelligenza artificiale:gli altoparlanti intelligenti, robot e chat bot:sono altamente interattivi. In questo caso, non sono solo indizi visibili su come appaiono e cosa dicono, ma su come interagiscono con te."
Sia nelle azioni che nei segnali, Sundar suggerisce agli sviluppatori di mantenere il giusto equilibrio. Per esempio, un segnale che non comunica in modo trasparente all'utente che l'intelligenza artificiale è al lavoro nel dispositivo potrebbe attivare segnali negativi, ma se il segnale fornisce troppi dettagli, le persone possono tentare di corrompere, o "giocare", l'interazione con l'IA. "Indicare la giusta quantità di trasparenza sull'interfaccia è quindi molto importante, " Egli ha detto.
"Se il tuo altoparlante intelligente ti fa troppe domande, o interagisce troppo con te, potrebbe essere un problema, pure, " ha detto Sundar. "La gente vuole la collaborazione. Ma vogliono anche ridurre al minimo i costi. Se l'intelligenza artificiale ti fa costantemente domande, quindi l'intero punto di AI, ovvero convenienza, è andato."
Sundar ha affermato di aspettarsi che il quadro di segnali e azioni guidi i ricercatori mentre testano questi due percorsi verso la fiducia nell'IA. Ciò genererà prove per informare su come sviluppatori e designer creano strumenti e tecnologie basati sull'intelligenza artificiale per le persone.
La tecnologia AI si sta evolvendo così velocemente che molti critici stanno spingendo per vietare completamente alcune applicazioni. Sundar ha affermato che dare ai ricercatori il tempo di indagare e comprendere a fondo come gli esseri umani interagiscono con la tecnologia è un passo necessario per aiutare la società a sfruttare i vantaggi dei dispositivi, minimizzando le possibili implicazioni negative.
"Faremo errori, ", ha detto Sundar. "Dalla stampa a Internet, le nuove tecnologie dei media hanno portato a conseguenze negative, ma hanno anche portato a molti più benefici. Non c'è dubbio che certe manifestazioni dell'IA ci frustreranno, ma a un certo punto, dovremo coesistere con l'intelligenza artificiale e portarli nelle nostre vite".