I chatbot di intelligenza artificiale fanno ancora fatica a comprendere l'impatto delle loro parole. Credito:Shutterstock
In quest'era di informazione e disinformazione, i progressi tecnologici ci stanno sfidando a ripensare al modo in cui funziona il linguaggio.
Prendi chatbot conversazionali, Per esempio. Questi programmi per computer imitano la conversazione umana tramite testo o audio. L'azienda di materassi Casper ha creato Insomnobot-3000 per comunicare con le persone che hanno disturbi del sonno. Dà a coloro che hanno problemi a dormire l'opportunità di parlare con "qualcuno" mentre tutti gli altri dormono.
Ma Insomnobot-3000 non solo chiacchiera con i suoi utenti, rispondendo alle domande. Ha lo scopo di ridurre la solitudine sentita da chi soffre di insonnia. Le sue parole hanno il potenziale per avere un impatto sull'utente umano.
Nella sua forma più elementare, la lingua fa le cose con le parole. È una forma di azione che non si limita a dichiarare i fatti.
Questa osservazione abbastanza semplice è stata fatta negli anni '50 da un oscuro e un po' eccentrico filosofo dell'Università di Oxford, John Langshaw Austin. Nel suo libro, Come fare le cose con le parole , Austin ha sviluppato il concetto di linguaggio performativo.
Quello che intendeva Austin era che la lingua non descrive solo le cose, in realtà "esegue". Per esempio, se dico che lascio in eredità a mia figlia la collana di perle di mia nonna, Sto facendo qualcosa di più che semplicemente descrivere o riferire qualcosa. Sto compiendo un'azione significativa.
Austin ha anche classificato il discorso in tre parti:significato, uso e impatto. Il suo studio e le sue scoperte sul linguaggio divennero noti come teoria degli atti linguistici. Questa teoria era importante non solo in filosofia, ma anche in altri settori come il diritto, letteratura e pensiero femminista.
Una ricetta per il settore dei chatbot
Con questo in testa, cosa può dirci la teoria di Austin sui chatbot conversazionali di oggi?
La mia ricerca si concentra sull'intersezione tra diritto e linguaggio, e ciò che la teoria di Austin ha da dire sulla nostra comprensione di come la macchina creativa stia cambiando le operazioni sociali tradizionali, come l'intelligenza artificiale che scrive romanzi, robo-reporter che scrivono articoli di notizie, enormi corsi online aperti (MOOC) che sostituiscono aule e professori utilizzando software di valutazione dei saggi.
L'attuale tecnologia dei chatbot è focalizzata sul miglioramento della capacità dei chatbot di imitare il significato e l'uso del parlato. Un buon esempio di questo è Cleverbot.
Ma l'industria dei chatbot dovrebbe concentrarsi sul terzo aspetto della teoria di Austin:determinare l'impatto del discorso del chatbot sulla persona che lo utilizza.
Certamente, se siamo in grado di insegnare ai chatbot a imitare il significato e l'uso del linguaggio umano, dovremmo anche essere in grado di insegnare loro a imitarne l'impatto?
Imparare ad avere una conversazione
Gli ultimi chatbot si basano su un apprendimento automatico all'avanguardia, noto come apprendimento profondo.
L'apprendimento automatico è un'applicazione dell'intelligenza artificiale che può apprendere senza l'aiuto umano. Apprendimento profondo, che è modellato sulla rete di neuroni nel cervello umano, porta l'apprendimento automatico ancora più lontano. I dati vengono inseriti in profonde reti neurali artificiali progettate per imitare il processo decisionale umano.
I chatbot progettati con questa tecnologia di rete neurale non si limitano a ripetere ciò che viene detto o producono risposte predefinite. Anziché, imparano a conversare.
I chatbot analizzano enormi quantità di linguaggio umano, e poi prendere decisioni su come rispondere dopo aver valutato e classificato quanto bene le possibilità rispecchiano quel discorso. Eppure, nonostante questi miglioramenti, questi nuovi bot soffrono ancora di occasionali passi falsi poiché si concentrano principalmente sul significato e sull'uso del loro discorso.
I chatbot precedenti erano molto peggio. In meno di 24 ore dall'uscita su Twitter nel 2016, chatbot di Microsoft, un sistema di intelligenza artificiale chiamato Tay (un'abbreviazione formata da "Thinking About You") e modellato sui modelli linguistici di una ragazza adolescente, aveva più di 50, 000 follower e ne aveva prodotti oltre 100, 000 tweet.
Mentre Tay salutava il mondo, i suoi primi tweet erano abbastanza innocenti. Ma poi ha iniziato a imitare i suoi seguaci.
È diventata subito razzista, chatbot sessista e decisamente sgradevole. Microsoft è stata costretta a portarla offline.
Tay era completamente dipendente dai dati che le venivano forniti e, ma ancora più importante, sulle persone che stavano creando e plasmando quei dati. Non capiva cosa stessero "facendo" gli utenti umani con il linguaggio. Né capiva gli effetti del suo discorso.
Insegnare ai chatbot la cosa sbagliata
Alcuni ricercatori ritengono che più dati acquisiscono i chatbot, meno offese causeranno.
Ma la contabilizzazione di tutte le possibili risposte a una data domanda potrebbe richiedere molto tempo o fare affidamento su molta potenza di calcolo. Più, questa soluzione di raccogliere più dati sul significato e sull'uso è in realtà solo la storia che si ripete. "Zo" di Microsoft " un successore di Tay, lotta ancora con domande difficili sulla politica.
In poche parole, il settore dei chatbot sta andando nella direzione sbagliata:il settore dei chatbot sta insegnando ai chatbot la cosa sbagliata.
Chatbot trasformativi
Un chatbot migliore non guarderebbe solo al significato e all'uso delle parole, ma anche le conseguenze di ciò che dice.
La parola funziona anche come una forma di azione sociale. Nel suo libro Problemi di genere , la filosofa Judith Butler ha esaminato la performatività del linguaggio e come aumenta la nostra comprensione del genere. Lei vedeva il genere come qualcosa che si fa, piuttosto che qualcosa che si è, che è costruito attraverso il linguaggio e i gesti quotidiani.
I chatbot conversazionali sono destinati a un pubblico diversificato. Concentrarsi sull'effetto della parola potrebbe migliorare la comunicazione poiché il chatbot si occuperebbe anche dell'impatto delle sue parole.
In un'industria tecnologica messa alla prova dalla sua mancanza di diversità e inclusività, un tale chatbot potrebbe essere trasformativo, come ci ha mostrato Butler nella costruzione del genere.
C'è, Certo, un avvertimento. Concentrarsi sull'impatto del linguaggio è il tratto distintivo delle bufale, propaganda e disinformazione - "notizie false" - un atto linguistico deliberatamente progettato, preoccupato solo di ottenere l'effetto. Non importa la sua forma, le notizie false imitano semplicemente il giornalismo e vengono create solo per ottenere un effetto.
La teoria della performatività nel linguaggio di Austin ci ha aiutato a capire come parlarci.
L'industria dei chatbot dovrebbe ora concentrare i propri sforzi sull'impatto della parola, oltre al lavoro già svolto sul significato e sull'uso delle parole. Perché un chatbot può essere veramente colloquiale solo se si impegna in tutti gli aspetti di un atto linguistico.
Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.