Credito:CC0 Dominio Pubblico
Affinché le macchine siano veramente intelligenti, alcuni ricercatori di intelligenza artificiale (AI) ritengono che i computer debbano riconoscere, comprendere e rispondere alle emozioni umane. In breve, le macchine devono essere dotate di intelligenza emotiva:la capacità di esprimere e identificare le proprie emozioni, e di interagire empaticamente con gli altri.
Quella qualità inequivocabilmente umana "è la chiave per sbloccare l'emergere di macchine che non sono solo più generali, robusto ed efficiente, ma che sono anche in linea con i valori dell'umanità, " I ricercatori di Microsoft AI Daniel McDuff e Ashish Kapoor hanno scritto in un recente articolo.
La padronanza dell'intelligenza emotiva consentirà ai computer di supportare meglio gli esseri umani nella loro salute fisica e mentale, oltre ad apprendere nuove competenze, scrisse McDuff e Kapoor.
Il Seattle Times ha parlato con il Corporate Vice President of AI and Research di Microsoft, Lili Cheng, sugli sviluppi dell'intelligenza emotiva delle macchine, e cosa significa per l'uomo. (La conversazione è stata modificata per lunghezza e chiarezza.)
D:Qual è la tecnologia alla base dell'intelligenza emotiva delle macchine?
A:Il modo in cui funziona il cervello umano è che ci sono alcune cose che hai imparato nel tempo, ma poi ci sono altre cose che fai in modo molto intuitivo. Proprio prima di avere un incidente, il tuo corpo potrebbe irrigidirsi e potresti non pensare a (come reagiresti) a certe cose - (in varie altre situazioni) che si applica a molte emozioni diverse come la felicità e la gioia.
(Il documento di McDuff e Kapoor) ha esaminato come gli umani rispondono con la paura. Possiamo aiutare i sistemi automatizzati a imparare da alcune delle stesse tecniche?
Hanno preso una simulazione di qualcuno che guida, e hanno misurato il polso della persona per vedere come ha risposto se stai cercando di evitare di schiantarti o colpire qualcosa.
E poi hanno costruito quel modello e l'hanno applicato a un'auto automatizzata che sta guidando attraverso la stessa simulazione. Hanno scoperto che applicando la lotta o fuga (reazione) che una persona (sperimenta), costruire un algoritmo attorno a questo, e applicarlo a un'auto automatizzata l'ha aiutata a rispondere molto rapidamente in alcune situazioni.
Non stanno solo usando la paura. Lo stanno combinando con l'altra tecnologia che è più razionale, proprio come farebbe una persona, perché non rispondi sempre solo alla paura.
Possono simulare alcune cose in un ambiente virtuale e continuare a eseguire questi test senza dover effettivamente disporre di auto reali strumentate. Sarebbe molto difficile fare questo tipo di test nel mondo reale.
D:Quali sono altre applicazioni pratiche per l'intelligenza emotiva delle macchine?
A:Il vero sogno è che (l'intelligenza emotiva) può aiutarti meglio in situazioni che sono più significative per te - (ad esempio, ) sei in una riunione stressante, o vuoi incontrare qualcuno di nuovo. E aiutare le persone a gestire meglio le proprie emozioni e a fare meglio in quel tipo di situazioni sarebbe davvero fantastico ... (Non solo) "apri la mia posta. Aiutami a portare a termine quel compito. Aiutami a organizzare la mia riunione più rapidamente".
D:In che modo queste macchine possono aiutare le persone a gestire le proprie emozioni?
Xiaoice è un chatbot molto popolare in Cina. È iniziato come un progetto di ricerca. L'obiettivo del progetto è davvero affascinante, perché a differenza di molta dell'assistenza che ti aiuta a portare a termine il lavoro, l'obiettivo di Xiaoice era solo quello di creare un'esperienza coinvolgente. Come possiamo aiutare il sistema a incoraggiare le persone a parlare (tra loro) e incoraggiarle a includere questo chatbot nelle conversazioni?
Una delle cose che (Xiaoice) fa nella conversazione è capire, "Oh, questa è una domanda, o questo è un momento in cui vuoi solo conversare con me, e non vuoi davvero che io abbia una risposta." Quindi (il chatbot) sta cercando di suddividere la conversazione in diversi modi in cui una persona potrebbe pensare alla comunicazione. Forse il bot ascolta solo un po' di più.
Hanno conversazioni che durano ore con persone che hanno solo bisogno di empatia, parlare con qualcuno, per divertirci di più, cose sociali. Questo è un esempio di un sistema progettato per studiare più interazioni emotive-sociali, che essere semplicemente produttivo.
D:È come un robot terapeutico?
Potrebbe potenzialmente (essere). Una delle abilità potrebbe essere quella di aiutarti se hai problemi di relazione. Ma fa anche cose molto pratiche, come ti insegna l'inglese, o ti aiuta con la traduzione, quindi capisce meglio qual è il tuo obiettivo e quindi fa emergere le abilità che vorresti.
D:In che modo il bot è in grado di comprendere se qualcuno è triste o fa una domanda?
A:Sono molte cose diverse—potrebbe essere l'intonazione della tua voce o le parole reali che stai dicendo, così come il tipo di interazione che stai avendo, la tua storia e alcune delle cose che hai fatto in passato.
D:L'intelligenza emotiva potrebbe anche aiutare a combattere la perpetuazione dei pregiudizi negli algoritmi di intelligenza artificiale?
R:È il nostro sogno:siamo ancora molto lontani dall'intelligenza artificiale di quando è di parte e quando non lo è. Abbiamo ancora quel problema con le persone, quindi è probabilmente qualcosa su cui dobbiamo lavorare a lungo. Ma se non iniziamo a pensarci e a lavorarci ora alla radice dei sistemi che creiamo, allora creeremo sicuramente sistemi che replicano molti dei problemi che vediamo nella società.
Abbiamo una collaborazione con un gruppo chiamato OpenAI per assicurarci che gli strumenti siano disponibili, in modo che tu non debba avere un dottorato di ricerca in intelligenza artificiale per fare le cose. Formare le persone per essere in grado di costruire il tipo di cose che vogliono sperimentare è estremamente critico per la società in generale.
E (in termini di) set di dati, vogliamo assicurarci che uomini e donne, anziani e giovani, e coloro che vivono in luoghi diversi sono tutti rappresentati nei dati che utilizziamo per addestrare i modelli (AI). Se è solo un lato molto limitato della società, quindi solo dal punto di vista commerciale non raggiungerai ... molti dei tuoi clienti, e vogliamo che questi strumenti risolvano molti problemi.
D:Quanto pensi che siano lontani gli sviluppatori dall'incorporare l'intelligenza emotiva in ogni macchina AI?
Dipende da come definisci l'intelligenza emotiva. Quello che amo dell'intelligenza artificiale della conversazione è che da un livello molto elementare se non hai alcune qualità umane nei sistemi, si sentono a pezzi. Se qualcosa non sa rispondere se lo saluti, o non conosce un po' della tua storia, non si sentono molto intelligenti.
In molti dei sistemi di conversazione che stiamo vedendo, le persone pensano (intelligenza emotiva) all'inizio (nello sviluppo). Molte volte le persone che progettano i sistemi non sono ingegneri, sono scrittori, oppure sono designer che hanno pensato al tipo di emozioni che potresti provare se usi un prodotto. Siamo molto lontani dal rendere questo (processo) automatizzato. Ma penso che sia fantastico vedere le persone pensare all'intelligenza emotiva fin dall'inizio.
D:Prevedi potenziali pericoli per le macchine dotate di intelligenza emotiva?
A:Come con tutto, più le cose sembrano naturali, dobbiamo assicurarci che le persone capiscano quando le cose sono reali o meno. Per tutto quello che facciamo, abbiamo un comitato etico per esaminare i prodotti Microsoft e abbiamo una serie di linee guida di progettazione.
Applichiamo le leggi sulla privacy a tutto ciò che facciamo e... assicurarci di non avere pregiudizi nei nostri dati è molto critico per ogni prodotto che abbiamo. Cerchiamo di condividere queste linee guida con chiunque utilizzi i nostri strumenti per creare la propria esperienza.
©2019 The Seattle Times
Distribuito da Tribune Content Agency, LLC.