Credito:foto Phonlamai/Shutterstock
"Scusami, Non ho capito bene." Chiunque abbia mai provato ad avere una conversazione più profonda con un assistente virtuale come Siri sa quanto possa essere frustrante. Questo nonostante il fatto che sistemi di intelligenza artificiale come questo stiano sempre più spingendo nelle nostre vite, con nuove storie di successo su base quasi quotidiana. Non solo le IA ora aiutano i radiologi a rilevare i tumori, possono agire come repellenti per gatti e persino rilevare segnali di potenziale tecnologia aliena dallo spazio.
Ma quando si tratta di abilità umane fondamentali, come fare una bella chiacchierata, L'intelligenza artificiale non è all'altezza. Semplicemente non può fornire l'umorismo, calore e la capacità di costruire un rapporto coerente e personale che è cruciale nelle conversazioni umane. Ma perché è così e ci arriverà mai?
I chatbot hanno effettivamente fatto molta strada dai loro inizi, con Eliza del MIT negli anni '60. Eliza si basava su una serie di regole attentamente elaborate che avrebbero dato l'impressione di essere un'ascoltatrice attiva e di simulare una sessione con uno psicoterapeuta.
Sistemi come Eliza erano bravi a dare una prima impressione sofisticata, ma si scoprivano facilmente dopo alcuni turni di conversazione. Tali sistemi sono stati costruiti sugli sforzi per raccogliere quanta più conoscenza del mondo possibile, e poi formalizzarlo in concetti e come questi si relazionano tra loro. Concetti e relazioni sono stati ulteriormente integrati nella grammatica e nei lessici che avrebbero aiutato ad analizzare e generare il linguaggio naturale da rappresentazioni logiche intermedie. Per esempio, la conoscenza del mondo può contenere fatti come "il cioccolato è commestibile" e "il rock non è commestibile".
Imparare dai dati
I sistemi di intelligenza artificiale conversazionale di oggi sono diversi in quanto mirano alla conversazione a dominio aperto:non c'è limite al numero di argomenti, domande o istruzioni che un essere umano può chiedere. Ciò si ottiene principalmente evitando completamente qualsiasi tipo di rappresentazione intermedia o ingegneria della conoscenza esplicita. In altre parole, il successo dell'attuale IA conversazionale si basa sulla premessa che non conosce e non capisce nulla del mondo.
Il modello di deep learning di base alla base del lavoro più attuale nell'elaborazione del linguaggio naturale è chiamato rete neurale ricorrente, per cui un modello prevede una sequenza di parole in uscita sulla base di una sequenza di parole in ingresso per mezzo di una funzione di probabilità deducibile dai dati. Dato l'input dell'utente "Come stai?" il modello può determinare che una risposta statisticamente frequente è "Sto bene".
Il potere di questi modelli risiede in parte nella sua semplicità:evitando rappresentazioni intermedie, più dati porteranno in genere a modelli migliori e risultati migliori. L'apprendimento per un'intelligenza artificiale è molto simile a come apprendiamo:digerire un set di dati di addestramento molto ampio e confrontarlo con dati noti ma non visti (set di test). In base alle prestazioni dell'IA rispetto al set di test, il modello predittivo dell'IA viene quindi adattato per ottenere risultati migliori prima che il test venga ripetuto.
Ma come si determina quanto è buono? Puoi guardare la grammatica degli enunciati, come suonano "come umani", o la coerenza di un contributo in una sequenza di turni conversazionali. La qualità dei risultati può essere determinata anche come valutazione soggettiva di quanto siano vicini alle aspettative. DeepDrumpf del MIT è un buon esempio:un sistema di intelligenza artificiale addestrato utilizzando i dati dell'account Twitter di Donald Trump e che suona stranamente proprio come lui, commentare una serie di argomenti come l'assistenza sanitaria, donne, o immigrazione.
Però, i problemi iniziano quando i modelli ricevono input "sbagliati". Tay di Microsoft era un tentativo di costruire un'intelligenza artificiale conversazionale che sarebbe gradualmente "migliorata" e sarebbe diventata più simile all'uomo avendo conversazioni su Twitter. Tay si è tristemente trasformato da filantropo in un prepotente politico con una visione del mondo incoerente ed estremista entro 24 ore dal dispiegamento. È stato presto messo offline.
Mentre le macchine imparano da noi, prendono anche i nostri difetti – le nostre ideologie, stati d'animo e opinioni politiche. Ma a differenza di noi, non imparano a controllarli o valutarli:mappano solo una sequenza di input a una sequenza di output, senza alcun filtro o bussola morale.
Questo ha, però, stato anche presentato come un vantaggio. Alcuni sostengono che i recenti successi del relatore del progetto IBM, un'intelligenza artificiale in grado di costruire "argomentazioni convincenti basate sull'evidenza" su un determinato argomento, è dovuto alla sua mancanza di pregiudizi e influenza emotiva. Per fare questo, cerca dati in un'ampia raccolta di documenti e estrae informazioni per esprimere il punto di vista opposto alla persona con cui sta discutendo.
Prossimi passi
Ma anche se più dati possono aiutare l'IA a imparare a dire cose più pertinenti, suonerà mai davvero umano? Le emozioni sono essenziali nella conversazione umana. Riconoscere la tristezza o la felicità nella voce di un'altra persona o persino nel messaggio di testo è incredibilmente importante quando si adatta la nostra risposta o si esprime un giudizio su una situazione. Di solito dobbiamo leggere tra le righe.
Le IA conversazionali sono essenzialmente psicopatici, senza sentimenti o empatia. Questo diventa dolorosamente chiaro quando urliamo il nostro numero cliente al telefono per la settima volta, nella speranza che il sistema riconosca la nostra agonia e ci metta in contatto con un rappresentante umano del servizio clienti.
Allo stesso modo, le IA conversazionali di solito non capiscono l'umorismo o il sarcasmo, che la maggior parte di noi considera cruciale per una buona chiacchierata. Sebbene i singoli programmi progettati per insegnare all'IA a individuare commenti sarcastici tra una serie di frasi abbiano avuto un certo successo, nessuno è ancora riuscito a integrare questa abilità in una vera IA conversazionale.
Chiaramente il prossimo passo per le IA conversazionali è integrare questa e altre funzioni "umane". Sfortunatamente, non abbiamo ancora le tecniche disponibili per farlo con successo. E anche se lo facessimo, il problema rimane che più cerchiamo di costruire in un sistema, maggiore sarà la potenza di elaborazione richiesta. Quindi potrebbe volerci del tempo prima di avere a disposizione i tipi di computer che lo renderanno possibile.
I sistemi di intelligenza artificiale mancano chiaramente ancora di una comprensione più profonda del significato delle parole, le opinioni politiche che rappresentano, le emozioni trasmesse e il potenziale impatto delle parole. Questo li mette molto tempo lontano dal sembrare veramente umano. E potrebbe volerci anche più tempo prima che diventino compagni sociali che ci capiscano veramente e possano avere una conversazione nel senso umano della parola.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.