Gli assistenti personali oggi possono capire cosa stai dicendo, ma se potessero dedurre ciò che stavi pensando in base alle tue azioni? Un team di ricercatori accademici e industriali guidati dalla Carnegie Mellon University sta lavorando per costruire agenti artificialmente intelligenti con questa abilità sociale.
L'obiettivo del quadriennio, Progetto da 6,6 milioni di dollari, guidato da Katia Sycara del Robotics Institute della CMU e sponsorizzato dalla Defense Advanced Research Projects Agency (DARPA), è utilizzare l'intelligenza sociale della macchina per aiutare i team di uomini e macchine a lavorare insieme in sicurezza, efficiente e produttivo. Il progetto include esperti di fattori umani e neuroscienziati presso l'Università di Pittsburgh e Northrop Grumman.
"L'idea è che la macchina cerchi di dedurre ciò che le persone pensano in base al loro comportamento, " disse Sicara, un professore di ricerca che ha trascorso decenni a sviluppare agenti software. "La persona è confusa? Sta prestando attenzione a ciò che è necessario? È sovraccaricata?" In alcuni casi, l'agente software potrebbe persino essere in grado di determinare che un compagno di squadra sta commettendo errori a causa di disinformazione o mancanza di formazione, lei ha aggiunto.
Gli esseri umani hanno la capacità di dedurre gli stati mentali degli altri, chiamata teoria della mente:qualcosa che le persone fanno come parte della consapevolezza situazionale mentre valutano il loro ambiente e considerano le possibili azioni. I sistemi di intelligenza artificiale non sono ancora in grado di questa abilità, ma Sycara e i suoi colleghi si aspettano di raggiungere questo obiettivo attraverso il meta-apprendimento, un ramo dell'apprendimento automatico in cui l'agente software impara essenzialmente come apprendere.
Credito:Carnegie Mellon University
Oltre a Sicara, il team comprende tre co-investigatori principali:Changliu Liu, un assistente professore all'Istituto di Robotica; Michael Lewis, un professore alla School of Computing and Information di Pitt; e Ryan McKendrick, uno scienziato cognitivo alla Northrop Grumman.
Il team di ricerca metterà alla prova i propri agenti socialmente intelligenti in uno scenario di ricerca e salvataggio all'interno del mondo virtuale del videogioco Minecraft, in un banco di prova sviluppato con i ricercatori dell'Arizona State University. Nel primo anno, i ricercatori si concentreranno sull'addestramento del loro agente software per dedurre lo stato mentale di un singolo membro del team. Negli anni successivi, l'agente interagirà con più giocatori umani e tenterà di capire cosa sta pensando ciascuno di loro, anche se il loro ambiente virtuale cambia.
Gli agenti software sono programmi autonomi in grado di percepire il loro ambiente e prendere decisioni. Oltre agli assistenti personali digitali, gli esempi vanno dai programmi che fanno funzionare le auto a guida autonoma a quelli che fanno apparire annunci pubblicitari nelle e-mail per prodotti per i quali l'utente ha espresso interesse. Gli agenti possono essere utilizzati anche per aiutare le persone con compiti complessi, come la programmazione e la logistica.
DARPA sta sponsorizzando il progetto attraverso il suo programma ASIST (Artificial Social Intelligence for Successful Teams).