Un team di ricercatori tra cui il Dr. James Schaffer, scienziato per il laboratorio di ricerca dell'esercito di RDECOM, il laboratorio di ricerca aziendale dell'esercito (ARL) di stanza presso l'ARL West a Playa Vista, California, ha scoperto di recente che la maggior parte delle persone trascura l'intelligenza artificiale nonostante i consigli impeccabili. I sistemi simili all'IA saranno parte integrante della strategia dell'esercito nei prossimi cinque anni, quindi i progettisti di sistemi dovranno iniziare a diventare un po' più creativi per attirare gli utenti. (Grafica dell'esercito degli Stati Uniti di Jhi Scott) Credito:Grafica dell'esercito degli Stati Uniti di Jhi Scott
Se fossi convinto di conoscere la strada di casa, accenderesti ancora il tuo GPS?
Gli scienziati dell'esercito hanno recentemente tentato di rispondere a una domanda simile a causa della continua preoccupazione che l'intelligenza artificiale, che può essere opaco e frustrante per molte persone, potrebbe non essere utile nel processo decisionale sul campo di battaglia.
"L'esercito degli Stati Uniti continua a spingere per la modernizzazione delle sue forze, con notevoli sforzi tra cui lo sviluppo di software basato su smartphone per la consegna di informazioni in tempo reale come l'Android Tactical Assault Kit, o ATAK, e l'assegnazione di finanziamenti significativi alla ricerca di nuovi metodi di intelligenza artificiale e apprendimento automatico per assistere il personale di comando e controllo, " ha detto il dottor James Schaffer, scienziato per il laboratorio di ricerca dell'esercito di RDECOM, il laboratorio di ricerca aziendale dell'esercito (ARL), all'ARL West di Playa Vista, California.
Secondo Schaffer, nonostante questi progressi, esiste ancora una lacuna significativa nelle conoscenze di base sull'uso dell'IA, e non si sa quali fattori dell'IA aiuteranno o meno i processi decisionali militari.
La ricerca universitaria e aziendale ha compiuto notevoli progressi nella risoluzione di questo problema per applicazioni come consigli su film e ristoranti, ma i risultati non si traducono esattamente nel mondo militare.
"Ad esempio, molti studi di ricerca e test A/B, come quelli eseguiti da Amazon, hanno sperimentato diverse forme di persuasione, stili di argomentazione e interfaccia utente per determinare la combinazione vincente che muove maggiormente il prodotto o ispira più fiducia, Schaffer ha detto. "Purtroppo, ci sono grandi divari tra le ipotesi in questi domini a basso rischio e la pratica militare".
La ricerca dell'esercito, che era una collaborazione tra scienziati dell'esercito e ricercatori universitari presso l'Università della California, Santa Barbara, ipotizza che molte persone si fidino delle proprie capacità molto più di quelle di un computer, che influenzerà il loro giudizio quando vengono spinti a eseguire.
Secondo Schaffer, ciò implica che anche se si potesse creare un'IA impeccabile, alcune persone non ascolterebbero i consigli dell'IA.
I ricercatori hanno costruito un abstract simile al dilemma del prigioniero iterato, un gioco in cui i giocatori devono scegliere di cooperare o di disertare contro i loro co-giocatori in ogni round, al fine di controllare tutti i fattori rilevanti.
Il dilemma del prigioniero iterato è stato utilizzato in relazione a diversi problemi del mondo reale, come le corse agli armamenti militari, condivisione pubblica delle risorse e della politica internazionale.
Una versione online del gioco è stata sviluppata dal team di ricerca, dove i giocatori hanno ottenuto punti prendendo buone decisioni in ogni round.
Un'intelligenza artificiale è stata utilizzata per generare consigli in ogni round, che è stato mostrato accanto all'interfaccia di gioco, e ha suggerito quale decisione dovrebbe essere presa dal giocatore.
I ricercatori hanno avuto l'opportunità di progettare un'IA che consigliasse sempre la linea d'azione ottimale.
Però, Proprio come nella vita reale, i giocatori dovevano accedere manualmente ai consigli dell'IA, così come devi attivare manualmente il GPS, ed erano liberi di accettare o ignorare il suo suggerimento.
I ricercatori hanno anche presentato diverse versioni di questa IA, alcune deliberatamente imprecise, alcune informazioni di gioco richieste da inserire manualmente, e alcuni giustificavano i loro suggerimenti con argomenti razionali.
Tutte le varianti di questi trattamenti di intelligenza artificiale sono state testate in modo da poter studiare gli effetti di interazione tra le configurazioni di intelligenza artificiale.
Le persone sono state invitate a giocare online e i ricercatori hanno raccolto un profilo di ciascun giocatore e ne hanno monitorato il comportamento.
Per ogni giocatore, i ricercatori hanno chiesto della loro familiarità con il gioco misurando anche la loro vera competenza.
Inoltre, a metà del gioco è stato somministrato un test che misurava la consapevolezza degli elementi di gioco.
"Ciò che è stato scoperto potrebbe turbare alcuni sostenitori dell'IA. Due terzi delle decisioni umane non erano d'accordo con l'IA, indipendentemente dal numero di errori nei suggerimenti, " ha detto Schaffer.
Più il giocatore ha stimato in anticipo la sua familiarità con il gioco, meno l'IA è stata utilizzata, un effetto che è stato ancora osservato durante il controllo della precisione dell'IA. Ciò implica che il miglioramento della precisione di un sistema non sarà in grado di aumentare l'adozione del sistema in questa popolazione.
"Questo potrebbe essere un risultato innocuo se questi giocatori stessero davvero facendo meglio, ma in realtà si comportassero significativamente peggio dei loro coetanei più umili, che ha riferito di sapere meno sul gioco in anticipo, " ha detto Schaffer. "Quando l'IA ha tentato di giustificare i suoi suggerimenti ai giocatori che hanno segnalato un'elevata familiarità con il gioco, una ridotta consapevolezza degli elementi di gioco è stata osservata come un sintomo di eccessiva fiducia e autocompiacimento."
Nonostante questi riscontri, non è stato osservato un corrispondente aumento dell'accordo con i suggerimenti dell'IA.
Questo rappresenta un problema per i progettisti di sistemi:gli utenti incompetenti hanno bisogno soprattutto dell'intelligenza artificiale, ma hanno meno probabilità di essere influenzati da giustificazioni razionali, ha detto Schaffer.
Gli utenti incompetenti erano anche i più propensi a dire che si fidavano dell'IA, che è stato studiato attraverso un questionario post-partita.
"Ciò contrasta nettamente con la loro osservata negligenza nei confronti dei suggerimenti dell'IA, dimostrando che le persone non sono sempre oneste, o potrebbero non essere sempre consapevoli del proprio comportamento, " ha detto Schaffer.
Per Schaffer e il team, questa ricerca mette in luce problemi in corso nell'usabilità di complessi, sistemi opachi come AI, nonostante i continui progressi nella precisione, robustezza e velocità.
"Gli argomenti razionali si sono dimostrati inefficaci su alcune persone, quindi i progettisti potrebbero aver bisogno di essere più creativi nella progettazione di interfacce per questi sistemi, " ha detto Schaffer.
Schaffer ha detto che questo potrebbe essere ottenuto facendo appello alle emozioni o alla competitività, o anche rimuovendo la presenza dall'IA, tale che gli utenti non ne registrino la presenza e quindi non si ancorino alle proprie capacità.
"Nonostante le difficoltà nell'interazione uomo-computer, I sistemi simili all'IA saranno parte integrante della strategia dell'esercito nei prossimi cinque anni, " ha detto Schaffer. "Una delle principali sfide che le operazioni militari devono affrontare oggi è la rapida risposta degli avversari della guerriglia, che spesso hanno catene di comando più brevi e quindi possono agire e reagire più rapidamente delle forze armate statunitensi. I sistemi complessi che possono reagire rapidamente a un ambiente in evoluzione e accelerare il flusso di informazioni possono migliorare i tempi di risposta e aiutare a mantenere l'op-tempo, ma solo se gli utenti ricevono sufficiente fiducia".
Il gruppo di ricerca continua a sperimentare diverse interfacce per i sistemi di intelligenza artificiale in modo che tutti i tipi di persone possano beneficiare di una conoscenza automatizzata sempre più efficace.
Questa ricerca apparirà negli atti della conferenza ACM 2019 sulle interfacce utente intelligenti ( iui.acm.org/2019/ ).