Credito:CC0 Dominio Pubblico
La maggior parte degli algoritmi probabilmente non ha mai sentito la canzone degli Eagles, "Occhi bugiardi". Altrimenti, farebbero un lavoro migliore nel riconoscere la doppiezza.
I computer non sono molto bravi a discernere le false dichiarazioni, e questo è un problema poiché le tecnologie sono sempre più utilizzate nella società per rendere decisioni che modellano la politica pubblica, affari e la vita delle persone.
Si scopre che gli algoritmi falliscono i test di base come rilevatori di verità, secondo i ricercatori che studiano i fattori teorici dell'espressione e le complessità della lettura delle emozioni presso l'USC Institute for Creative Technologies. Il team di ricerca ha completato un paio di studi utilizzando la scienza che mina la psicologia popolare e le tecniche di comprensione dell'espressione dell'intelligenza artificiale, entrambi assumono che le espressioni facciali rivelino ciò che le persone stanno pensando.
"Sia le persone che i cosiddetti algoritmi di "lettura delle emozioni" si basano su una saggezza popolare secondo cui le nostre emozioni sono scritte sul nostro viso, " ha detto Jonathan Gratch, direttore per la ricerca sull'uomo virtuale presso ICT e professore di informatica presso la USC Viterbi School of Engineering. "Questo è lontano dalla verità. Le persone sorridono quando sono arrabbiate o turbate, mascherano i loro veri sentimenti, e molte espressioni non hanno nulla a che fare con i sentimenti interiori, ma riflettono convenzioni conversazionali o culturali."
Gratch e colleghi hanno presentato i risultati oggi all'ottava conferenza internazionale sull'informatica affettiva e l'interazione intelligente a Cambridge, Inghilterra.
Certo, le persone sanno che le persone possono mentire con la faccia seria. I giocatori di poker bluffano. Colloqui falsi di candidati di lavoro. I coniugi infedeli tradiscono. E i politici possono pronunciare allegramente false dichiarazioni.
Ancora, gli algoritmi non sono così bravi a catturare la doppiezza, anche se le macchine sono sempre più utilizzate per leggere le emozioni umane e informare le decisioni che cambiano la vita. Per esempio, il Department of Homeland Security investe in tali algoritmi per prevedere potenziali minacce. Alcune nazioni utilizzano la sorveglianza di massa per monitorare i dati delle comunicazioni. Gli algoritmi sono usati nei focus group, campagne di marketing, per selezionare i richiedenti di prestito o assumere persone per lavori.
"Stiamo cercando di minare la visione della psicologia popolare che le persone hanno che se potessimo riconoscere le espressioni facciali delle persone, potremmo dire cosa stanno pensando, " disse Gratch, che è anche professore di psicologia. "Pensa a come le persone usavano i poligrafi nel corso della giornata per vedere se le persone stavano mentendo. Allora c'erano abusi della tecnologia, proprio come gli abusi della tecnologia delle espressioni facciali di oggi. Stiamo usando ipotesi ingenue su queste tecniche perché non c'è alcuna associazione tra le espressioni e ciò che le persone provano veramente in base a questi test".
Per dimostrarlo, Gratch e altri ricercatori Su Lei e Rens Hoegen presso ICT, insieme a Brian Parkinson e Danielle Shore dell'Università di Oxford, ha esaminato le espressioni facciali spontanee in situazioni sociali. In uno studio, hanno sviluppato un gioco che 700 persone hanno giocato per soldi e poi hanno catturato come le espressioni delle persone hanno influenzato le loro decisioni e quanto hanno guadagnato. Prossimo, hanno permesso ai soggetti di rivedere il loro comportamento e fornire approfondimenti su come stavano usando le espressioni per ottenere vantaggi e se le loro espressioni corrispondevano ai loro sentimenti.
Utilizzando diversi approcci innovativi, il team ha esaminato le relazioni tra le espressioni facciali spontanee e gli eventi chiave durante il gioco. Hanno adottato una tecnica della psicofisiologia chiamata "potenziali correlati agli eventi" per affrontare l'estrema variabilità delle espressioni facciali e hanno utilizzato tecniche di visione artificiale per analizzare tali espressioni. Per rappresentare i movimenti del viso, hanno usato un metodo recentemente proposto chiamato fattori facciali, che cattura molte sfumature delle espressioni facciali senza le difficoltà fornite dalle moderne tecniche di analisi.
Gli scienziati hanno scoperto che i sorrisi erano le uniche espressioni costantemente provocate, indipendentemente dalla ricompensa o dall'equità dei risultati. Inoltre, i partecipanti erano abbastanza imprecisi nel percepire le emozioni facciali e particolarmente poveri nel riconoscere quando le espressioni erano regolate. I risultati mostrano che le persone sorridono per molte ragioni, non solo felicità, un contesto importante nella valutazione delle espressioni facciali.
"Queste scoperte sottolineano i limiti dell'uso della tecnologia per prevedere sentimenti e intenzioni, " ha detto Gratch. "Quando le aziende e i governi rivendicano queste capacità, l'acquirente dovrebbe stare attento perché spesso queste tecniche hanno presupposti semplicistici incorporati che non sono stati testati scientificamente."
La ricerca precedente mostra che le persone trarranno conclusioni sulle intenzioni e sulle azioni probabili degli altri semplicemente basandosi sulle espressioni dell'altro. Sebbene esistano studi precedenti che utilizzano l'analisi automatica delle espressioni per fare inferenze, come la noia, depressione e relazione, meno si sa circa la misura in cui le percezioni dell'espressione sono accurate. Questi recenti risultati evidenziano l'importanza delle informazioni contestuali quando si leggono le emozioni degli altri e supportano l'idea che le espressioni facciali comunichino più di quanto si possa credere.