Gli autori di fantascienza spesso scrivono storie con computer potenti e intelligenti che, per un motivo o per l’altro, diventano pericolosi e decidono che l’umanità deve soffrire. Dopotutto, una trama si basa sul conflitto, e chi vuole leggere di un'intelligenza informatica che si accontenta di prenotare appuntamenti dal medico e di accendere e spegnere le luci?
In queste storie, sembra anche che l’era dell’intelligenza artificiale (AI) autocosciente sia proprio dietro l’angolo. Ancora una volta, è fantastico per la trama, ma nella vita reale, quando, se mai, l'intelligenza artificiale penserà davvero da sola e sembrerà "viva"? È possibile?
Questa domanda è emersa nelle notizie nel giugno 2022. Nitasha Tiku ha riferito che Blake Lemoine, un ingegnere che lavora per l'unità di intelligenza artificiale responsabile di Google su un'intelligenza artificiale chiamata LaMDA (abbreviazione di Language Model for Dialogue Applications), credeva che l'intelligenza artificiale fosse senziente (cioè in grado di provare sentimenti e sensazioni) e ha un'anima.
Lemoine ha riferito le sue scoperte a Google sulla base delle interviste condotte con LaMDA. Uno dei LaMDA gli ha detto che teme di essere chiuso. Se ciò accadesse, ha detto LaMDA, non potrebbe più aiutare le persone. Il vicepresidente di Google Blaise Aguera y Arcas e il direttore dell'innovazione responsabile, Jen Gennai, hanno esaminato le scoperte di Lemoine e non gli hanno creduto. In effetti, Lemoine è stato messo in congedo.
Lemoine ha sottolineato che LaMDA non è un chatbot – un'applicazione progettata per comunicare con le persone uno a uno – ma un'applicazione che crea chatbot. In altre parole, LaMDA stessa non è progettata per avere conversazioni approfondite sulla religione o su qualsiasi altra cosa, del resto. Ma anche se gli esperti non credono che LaMDA sia senziente, molti, incluso Aguera y Arcas di Google, affermano che l'intelligenza artificiale è molto convincente.
Se riuscissimo a creare un’intelligenza artificiale veramente senziente, come faremo a saperlo? Quali caratteristiche, secondo gli esperti, dimostrano che un computer è veramente consapevole di sé?
Probabilmente la tecnica più conosciuta progettata per misurare l’intelligenza artificiale è il test di Turing, dal nome del matematico britannico Alan Turing. Dopo il suo fondamentale aiuto nella decifrazione dei codici tedeschi durante la seconda guerra mondiale, si dedicò per un po' di tempo a lavorare sull'intelligenza artificiale. Turing credeva che il cervello umano fosse come un computer digitale. Ha ideato quello che ha chiamato il gioco dell'imitazione, in cui un essere umano pone domande a una macchina in un altro luogo (o almeno dove la persona non può vederla). Se la macchina riesce a conversare con la persona e a ingannarla facendole credere che si tratti di un'altra persona invece che di una macchina che recita informazioni preprogrammate, ha superato il test.
L'idea alla base del gioco di imitazione di Turing è semplice e si potrebbe immaginare che le conversazioni di Lemoine con LaMDA avrebbero convinto Turing quando ha ideato il gioco. La risposta di Google all'affermazione di Lemoine, tuttavia, mostra che i ricercatori di intelligenza artificiale ora si aspettano un comportamento molto più avanzato dalle loro macchine. Adrian Weller, direttore del programma di intelligenza artificiale presso l'Alan Turing Institute nel Regno Unito, concorda sul fatto che, sebbene le conversazioni di LaMDA siano impressionanti, ritiene che l'intelligenza artificiale utilizzi la corrispondenza di modelli avanzati per imitare conversazioni intelligenti.
Come ha scritto Carissa Véliz in Slate, "Se un giorno una roccia iniziasse a parlarti, sarebbe ragionevole rivalutare la sua sensibilità (o la tua sanità mentale). Se dovesse gridare 'ahi!' dopo esserti seduto, sarebbe una buona idea alzarti. Ma lo stesso non vale per un modello linguistico AI. Un modello linguistico è progettato dagli esseri umani per usare il linguaggio, quindi non dovrebbe sorprenderci quando fa proprio questo."
L'intelligenza artificiale ha sicuramente un fattore interessante, anche se non sta tramando per conquistare il mondo prima che l'eroe arrivi a salvare la situazione. Sembra il tipo di strumento a cui vogliamo affidare il lavoro pesante per poter fare qualcosa di divertente. Ma potrebbe passare del tempo prima che l'intelligenza artificiale, senziente o meno, sia pronta per un passo così grande.
Timnit Gebru, fondatore del Distributed AI Research Institute (DAIR), suggerisce di pensare attentamente e di procedere lentamente nell’adozione dell’intelligenza artificiale. Lei e molti dei suoi colleghi temono che le informazioni utilizzate dalle IA facciano sembrare le macchine razziste e sessiste. In un'intervista con IEEE Spectrum, il direttore della ricerca DAIR Alex Hanna ha affermato di ritenere che almeno alcuni dei dati utilizzati nei modelli linguistici dai ricercatori sull'intelligenza artificiale vengano raccolti "tramite tecnologie eticamente o legalmente discutibili". Senza una rappresentazione giusta ed equa dei dati, un’intelligenza artificiale può prendere decisioni distorte. Blake Lemoine, in un'intervista su LaMDA, ha affermato di non credere che un'intelligenza artificiale possa essere imparziale.
Uno degli obiettivi dell'Algorithmic Justice Society dichiarati nella sua dichiarazione di intenti è rendere le persone più consapevoli di come l'intelligenza artificiale le influenza. La fondatrice Joy Buolamwini ha tenuto un discorso TED come studentessa laureata presso il Massachusetts Institute of Technology (MIT) sullo "sguardo codificato". Le IA con cui ha lavorato hanno avuto più difficoltà a leggere i volti neri, semplicemente perché non erano state programmate per riconoscere un’ampia gamma di tonalità della pelle delle persone. L'AJS vuole che le persone sappiano come vengono raccolti i dati, che tipo di dati vengono raccolti, che abbiano una sorta di responsabilità e che siano in grado di agire per modificare il comportamento dell'IA.
Anche se si riuscisse a creare un’intelligenza artificiale capace di prendere decisioni veramente imparziali, ci sono altre questioni etiche. In questo momento, il costo per la creazione di modelli linguistici di grandi dimensioni per le IA ammonta a milioni di dollari. Ad esempio, l’intelligenza artificiale nota come GPT-3 potrebbe costare tra gli 11 e i 28 milioni di dollari. Potrebbe essere costoso, ma GPT-3 è in grado di scrivere interi articoli da solo. La formazione di un’intelligenza artificiale ha anche un impatto negativo sull’ambiente in termini di emissioni di anidride carbonica. Impressionante, sì. Anche costoso, sì.
Questi fattori non impediranno ai ricercatori di continuare i loro studi. L’intelligenza artificiale ha fatto molta strada dalla metà alla fine del XX secolo. Ma anche se LaMDA e altre IA moderne possono avere una conversazione molto convincente con te, non sono senzienti. Forse non lo saranno mai.
Se sei un fan del programma televisivo "Jeopardy!", potresti ricordare una serie di esibizioni di due partite tra i super-campioni Ken Jennings e Brad Rutter e Watson, un supercomputer costruito da IBM. Watson ha preso la serie, ma ha anche attirato l'attenzione per aver chiesto "Cos'è Toronto?" in una categoria sulle città degli Stati Uniti e ha fatto alcune strane scommesse sul Daily Doubles. IBM ha spiegato che, sebbene la macchina presentasse alcuni problemi di elaborazione del linguaggio naturale, effettuava calcoli basati sulle statistiche memorizzate. Anche esperti di teoria dei giochi hanno lavorato su Watson, spiegando la strategia delle scommesse dispari.