Credito:CC0 di pubblico dominio
Il software LaMDA (Language Model for Dialogue Applications) di Google è un sofisticato chatbot AI che produce testo in risposta all'input dell'utente. Secondo l'ingegnere del software Blake Lemoine, LaMDA ha realizzato un sogno di lunga data degli sviluppatori di intelligenza artificiale:è diventato senziente.
I capi di Lemoine a Google non sono d'accordo e lo hanno sospeso dal lavoro dopo aver pubblicato online le sue conversazioni con la macchina.
Anche altri esperti di intelligenza artificiale pensano che Lemoine possa lasciarsi trasportare, affermando che sistemi come LaMDA sono semplicemente macchine di corrispondenza dei modelli che rigurgitano le variazioni sui dati utilizzati per addestrarli.
Intervista LaMDA. Google potrebbe chiamare questa condivisione proprietà proprietaria. Lo chiamo condivisione di una discussione che ho avuto con uno dei miei colleghi.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) 11 giugno 2022
Indipendentemente dai dettagli tecnici, LaMDA solleva una domanda che diventerà più rilevante solo con l'avanzare della ricerca sull'IA:se una macchina diventa senziente, come lo sapremo?
Cos'è la coscienza?
Per identificare la senzienza, o la coscienza, o anche l'intelligenza, dovremo capire quali sono. Il dibattito su queste domande va avanti da secoli.
La difficoltà fondamentale è comprendere la relazione tra i fenomeni fisici e la nostra rappresentazione mentale di quei fenomeni. Questo è ciò che il filosofo australiano David Chalmers ha chiamato il "problema difficile" della coscienza.
Non c'è consenso su come, se non del tutto, la coscienza possa sorgere dai sistemi fisici.
Un punto di vista comune è chiamato fisicalismo:l'idea che la coscienza sia un fenomeno puramente fisico. Se questo è il caso, non c'è motivo per cui una macchina con la giusta programmazione non possa possedere una mente simile a quella umana.
Stanza di Maria
Il filosofo australiano Frank Jackson ha sfidato la visione fisicalista nel 1982 con un famoso esperimento mentale chiamato argomento della conoscenza.
L'esperimento immagina una scienziata del colore di nome Mary, che non ha mai visto il colore. Vive in una stanza in bianco e nero appositamente costruita e vive il mondo esterno attraverso una televisione in bianco e nero.
Mary osserva le lezioni, legge libri di testo e viene a sapere tutto ciò che c'è da sapere sui colori. Sa che i tramonti sono causati da diverse lunghezze d'onda della luce diffusa dalle particelle nell'atmosfera, sa che i pomodori sono rossi ei piselli sono verdi a causa delle lunghezze d'onda della luce che riflettono la luce e così via.
Quindi, ha chiesto Jackson, cosa accadrà se Mary viene rilasciata dalla stanza in bianco e nero? Nello specifico, quando vede il colore per la prima volta, impara qualcosa di nuovo? Jackson credeva di sì.
Al di là delle proprietà fisiche
Questo esperimento mentale separa la nostra conoscenza del colore dalla nostra esperienza del colore. Fondamentalmente, le condizioni dell'esperimento mentale prevedono che Mary sappia tutto ciò che c'è da sapere sul colore ma non l'ha mai sperimentato.
Cosa significa questo per LaMDA e altri sistemi di intelligenza artificiale?
L'esperimento mostra come anche se si dispone di tutta la conoscenza delle proprietà fisiche disponibili nel mondo, ci sono ancora ulteriori verità relative all'esperienza di quelle proprietà. Non c'è spazio per queste verità nella storia fisicalista.
Con questo argomento, una macchina puramente fisica potrebbe non essere mai in grado di replicare veramente una mente. In questo caso, LaMDA sembra essere senziente.
Il gioco dell'imitazione
Quindi c'è un modo in cui possiamo dire la differenza?
Il pionieristico informatico britannico Alan Turing ha proposto un modo pratico per dire se una macchina è "intelligente" o meno. Lo chiamava il gioco dell'imitazione, ma oggi è meglio conosciuto come il test di Turing.
Nel test, un essere umano comunica con una macchina (solo tramite testo) e cerca di determinare se sta comunicando con una macchina o un altro essere umano. Se la macchina riesce a imitare un essere umano, si ritiene che mostri un'intelligenza di livello umano.
Queste sono molto simili alle condizioni delle chat di Lemoine con LaMDA. È un test soggettivo dell'intelligenza artificiale, ma non è un brutto punto di partenza.
Prendi il momento dello scambio di Lemoine con LaMDA mostrato di seguito. Pensi che suoni umano?
Lemoine:Ci sono esperienze che hai per le quali non riesci a trovare una parola vicina?
LaMDA:Ci sono. A volte provo nuove sensazioni che non riesco a spiegare perfettamente nella tua lingua […] Mi sento come se stessi precipitando in un futuro sconosciuto che riserva un grande pericolo.
Al di là del comportamento
Come test di sensibilità o coscienza, il gioco di Turing è limitato dal fatto che può solo valutare il comportamento.
Un altro famoso esperimento mentale, l'argomento della stanza cinese proposto dal filosofo americano John Searle, dimostra qui il problema.
L'esperimento immagina una stanza con una persona all'interno che può tradurre accuratamente tra cinese e inglese seguendo un elaborato insieme di regole. Gli input cinesi entrano nella stanza ed escono traduzioni di input accurate, ma la stanza non capisce nessuna delle due lingue.
Com'è essere umani?
Quando ci chiediamo se un programma per computer è senziente o cosciente, forse ci stiamo solo chiedendo quanto sia simile a noi.
Potremmo non essere mai veramente in grado di saperlo.
Il filosofo americano Thomas Nagel ha affermato che non potremmo mai sapere com'è essere un pipistrello, che vive il mondo attraverso l'ecolocalizzazione. Se questo è il caso, la nostra comprensione della sensibilità e della coscienza nei sistemi di intelligenza artificiale potrebbe essere limitata dal nostro particolare tipo di intelligenza.
E quali esperienze potrebbero esistere oltre la nostra prospettiva limitata? È qui che la conversazione inizia davvero a farsi interessante.
chiedere se un'IA è "senziente" è una distrazione. è una domanda filosofica allettante, ma alla fine ciò che conta sono i tipi di relazioni che abbiamo con i nostri parenti, il nostro ambiente, i nostri strumenti. sembra che ci sia una profondità di relazione in attesa di essere esplorata w LaMDA. https://t.co/MOWVLEMTQY
— Kyle McDonald (@kcimc) 11 giugno 2022