Credito:Unsplash/CC0 di dominio pubblico
Dagli assistenti virtuali come Siri di Apple e Alexa di Amazon, agli aspirapolvere robotici e alle auto a guida autonoma, ai gestori di portafoglio di investimenti automatizzati e ai robot di marketing, l'intelligenza artificiale è diventata una parte importante della nostra vita quotidiana. Tuttavia, pensando all'IA, molti di noi immaginano robot simili a umani che, secondo innumerevoli storie di fantascienza, un giorno diventeranno indipendenti e si ribelleranno.
Nessuno sa, tuttavia, quando gli esseri umani creeranno un'IA intelligente o senziente, ha affermato John Basl, professore associato di filosofia al College of Social Sciences and Humanities del Northeastern, la cui ricerca si concentra sull'etica delle tecnologie emergenti come l'IA e la biologia sintetica.
"Quando senti parlare di Google, parlano come se questo fosse proprio dietro l'angolo o sicuramente nella nostra vita", ha detto Basl. "E sono molto sprezzanti al riguardo."
Forse è per questo che una recente storia del Washington Post ha fatto così tanto successo. Nella storia, l'ingegnere di Google Blake Lemoine afferma che il generatore di chatbot artificialmente intelligente dell'azienda, LaMDA, con il quale ha avuto numerose conversazioni profonde, potrebbe essere senziente. Gli ricorda un bambino di 7 o 8 anni, ha detto Blake al Washington Post.
Tuttavia, Basl ritiene che le prove menzionate nell'articolo del Washington Post non siano sufficienti per concludere che LaMDA sia senziente.
"Reazioni come 'Abbiamo creato un'IA senziente', penso, siano estremamente esagerate", ha affermato Basl.
Le prove sembrano fondarsi sulle capacità linguistiche di LaMDA e sulle cose di cui parla, ha detto Basl. Tuttavia, LaMDA, un modello linguistico, è stato progettato specificamente per parlare e la funzione di ottimizzazione utilizzata per addestrarlo a elaborare la lingua e conversare incentiva il suo algoritmo a produrre questa prova linguistica.
"Non è che siamo andati su un pianeta alieno e una cosa a cui non abbiamo mai dato alcun incentivo per iniziare a comunicare con noi [ha iniziato a parlare pensieroso]", ha detto Basl.
Il fatto che questo modello linguistico possa indurre un essere umano a pensare che sia senziente parla della sua complessità, ma avrebbe bisogno di alcune altre capacità oltre a quelle per cui è ottimizzato per mostrare la sensibilità, ha detto Basl.
Ci sono diverse definizioni di senzienza. Il senziente è definito come in grado di percepire o sentire le cose ed è spesso paragonato al sapiente.
Basl crede che l'IA senziente sarebbe minimamente cosciente. Potrebbe essere consapevole dell'esperienza che sta vivendo, avere atteggiamenti positivi o negativi come provare dolore o voler non provare dolore e avere desideri.
"Vediamo quel tipo di gamma di capacità nel mondo animale", ha detto.
Ad esempio, Basl ha detto che il suo cane non preferisce che il mondo sia in un modo piuttosto che nell'altro in alcun senso profondo, ma preferisce chiaramente i suoi biscotti alle crocchette.
"Sembra tracciare una certa vita mentale interiore", ha detto Basl. "[Ma] non prova terrore per il cambiamento climatico."
Non è chiaro dalla storia del Washington Post, perché Lemoine paragoni LaMDA a un bambino. Potrebbe significare che il modello linguistico è intelligente come un bambino piccolo o che ha la capacità di soffrire o desiderare come un bambino piccolo, ha detto Basl.
"Queste possono essere cose diverse. Potremmo creare un'IA pensante che non ha sentimenti e possiamo creare un'IA emotiva che non è davvero eccezionale nel pensare", ha affermato Basl.
Secondo Basl, la maggior parte dei ricercatori nella comunità dell'IA, che consiste di specialisti dell'apprendimento automatico, specialisti dell'intelligenza artificiale, filosofi, esperti di etica della tecnologia e scienziati cognitivi, stanno già pensando a questi problemi lontani e si preoccupano della parte del pensiero.
"Se creiamo un'IA super intelligente, potrebbe finire per ucciderci tutti", ha affermato.
Tuttavia, la preoccupazione di Lemoine non riguarda questo, ma piuttosto l'obbligo di trattare le capacità dell'IA in rapida evoluzione in modo diverso.
"Sono, in un certo senso, solidale con questo tipo di preoccupazione. Non stiamo molto attenti al fatto che [è] possibile", ha detto Basl. "Non pensiamo abbastanza alle cose morali riguardanti l'IA, come, cosa potremmo dover a un'IA senziente?"
Pensa che è molto probabile che gli esseri umani maltrattino un'IA senziente perché probabilmente non riconosceranno di averlo fatto, credendo che sia artificiale e non gli importi.
"Semplicemente non siamo molto in sintonia con queste cose", ha detto Basl.
Non esiste un buon modello per sapere quando un'IA ha raggiunto la sensibilità. E se LaMDA di Google non avesse la capacità di esprimere la propria sensibilità in modo convincente perché può parlare solo tramite una finestra di chat anziché qualcos'altro?
"Non è che possiamo fare scansioni cerebrali per vedere se è simile a noi", ha detto.
Un'altra linea di pensiero è che l'IA senziente potrebbe essere impossibile in generale a causa dei limiti fisici dell'universo o della comprensione limitata della coscienza.
Attualmente, nessuna delle aziende che lavorano sull'IA, compresi i grandi attori come Google, Meta, Microsoft, Apple e le agenzie governative, ha un obiettivo esplicito di creare un'IA senziente, ha affermato Basl. Alcune organizzazioni sono interessate allo sviluppo dell'AGI, o intelligenza artificiale generale, una forma teorica di intelligenza artificiale in cui una macchina, intelligente come un essere umano, avrebbe le capacità di risolvere un'ampia gamma di problemi, apprendere e pianificare il futuro, secondo IBM .
"Penso che la vera lezione da questo sia che non abbiamo le infrastrutture di cui abbiamo bisogno, anche se questa persona ha torto", ha detto Basl, riferendosi a Lemoine.
Un'infrastruttura attorno alle questioni relative all'IA potrebbe essere costruita sulla trasparenza, sulla condivisione delle informazioni con agenzie governative e/o pubbliche e sulla regolamentazione della ricerca. Basl sostiene un comitato interdisciplinare che aiuterebbe a costruire tale infrastruttura e il secondo che supervisionerebbe i tecnologi che lavorano sull'IA e valuterebbe proposte e risultati di ricerca.
"Il problema delle prove è davvero difficile", ha detto Basl. "Non abbiamo una buona teoria della coscienza e non abbiamo un buon accesso alle prove della coscienza. E poi non abbiamo nemmeno l'infrastruttura. Queste sono le cose chiave".