Credito:GIC su Stocksy
Una potente intelligenza artificiale deve essere allineata in modo affidabile con i valori umani. Questo significa che l'IA alla fine dovrà vigilare su quei valori? I filosofi di Cambridge Huw Price e Karina Vold considerano il compromesso tra sicurezza e autonomia nell'era della superintelligenza.
Questo è stato il decennio dell'IA, con un'impresa sorprendente dopo l'altra. Un'IA per giocare a scacchi che può sconfiggere non solo tutti i giocatori di scacchi umani, ma anche tutte le precedenti macchine per scacchi programmate dall'uomo, dopo aver imparato il gioco in sole quattro ore? Questa è la notizia di ieri, Qual è il prossimo?
Vero, questi prodigiosi risultati sono tutti nella cosiddetta IA ristretta, dove le macchine svolgono compiti altamente specializzati. Ma molti esperti ritengono che questa restrizione sia molto temporanea. Entro la metà del secolo, potremmo avere l'intelligenza artificiale generale (AGI) – macchine in grado di eseguire prestazioni a livello umano sull'intera gamma di compiti che noi stessi possiamo affrontare.
Se è così, allora ci sono poche ragioni per pensare che si fermerà lì. Le macchine saranno libere da molti dei vincoli fisici sull'intelligenza umana. Il nostro cervello funziona a basse velocità di elaborazione biochimica grazie alla potenza di una lampadina, e hanno bisogno di passare attraverso un canale del parto umano. È notevole ciò che realizzano, dati questi handicap. Ma possono essere tanto lontani dai limiti fisici del pensiero quanto i nostri occhi dal telescopio spaziale Webb.
Una volta che le macchine sono migliori di noi nel progettare macchine ancora più intelligenti, i progressi verso questi limiti potrebbero accelerare. Cosa significherebbe questo per noi? Potremmo garantire una coesistenza sicura e proficua con tali macchine?
Il lato positivo, L'intelligenza artificiale è già utile e redditizia per molte cose, e ci si potrebbe aspettare che la super IA sia super utile, e super redditizio. Ma più potente diventa l'intelligenza artificiale, più gli chiediamo di fare per noi, tanto più importante sarà specificarne gli obiettivi con grande cura. Il folklore è pieno di storie di persone che chiedono la cosa sbagliata, con conseguenze disastrose – Re Mida, Per esempio, che non voleva davvero che la sua colazione si trasformasse in oro mentre se la portava alle labbra.
Quindi dobbiamo assicurarci che potenti macchine per l'intelligenza artificiale siano "a misura d'uomo", che abbiano obiettivi allineati in modo affidabile con i nostri valori. Una cosa che rende difficile questo compito è che per gli standard a cui vogliamo che le macchine mirino, noi stessi facciamo piuttosto male. Gli esseri umani sono tutt'altro che affidabili per gli umani. Facciamo molte cose terribili gli uni agli altri e a molte altre creature senzienti con le quali condividiamo il pianeta. Se le macchine superintelligenti non fanno molto meglio di noi, saremo in guai seri. Avremo una nuova e potente intelligenza che amplificherà i lati oscuri della nostra stessa natura fallibile.
Per sicurezza, poi, vogliamo che le macchine siano eticamente oltre che cognitivamente sovrumane. Vogliamo che mirino all'altezza morale, non per le depressioni in cui molti di noi trascorrono parte del nostro tempo. Per fortuna avranno l'intelligenza per il lavoro. Se ci sono strade per gli altipiani, saranno più bravi di noi a trovarli, e guidandoci nella giusta direzione. Potrebbero essere le nostre guide per un mondo molto migliore.
Però, ci sono due grossi problemi con questa visione utopica. Uno è il modo in cui avviamo le macchine durante il viaggio, l'altro è cosa significherebbe raggiungere questa destinazione. Il problema "iniziare" è che dobbiamo dire alle macchine cosa stanno cercando con sufficiente chiarezza e precisione da poter essere certi che lo troveranno, qualunque cosa si riveli effettivamente essere. Questa è una sfida ardua, dato che noi stessi siamo confusi e in conflitto sugli ideali, e comunità diverse potrebbero avere opinioni diverse.
Il problema della "destinazione" è che, nel metterci nelle mani di queste guide e guardiani morali, potremmo sacrificare la nostra autonomia, una parte importante di ciò che ci rende umani.
Giusto per concentrarci su un aspetto di queste difficoltà, siamo creature profondamente tribali. Troviamo molto facile ignorare la sofferenza degli estranei, e anche per contribuire ad esso, almeno indirettamente. Per il nostro bene, dovremmo sperare che l'IA faccia meglio. Non è solo che potremmo trovarci alla mercé dell'intelligenza artificiale di qualche altra tribù, ma che non potevamo fidarci di noi stessi, se gli avessimo insegnato che non tutte le sofferenze contano. Ciò significa che come creature tribali e moralmente fallibili, dobbiamo indirizzare le macchine verso qualcosa di meglio. Come lo facciamo? Questo è il problema per iniziare.
Per quanto riguarda il problema della destinazione, supponiamo che ci riusciamo. Ci si può aspettare che le macchine che sono migliori di noi nell'attenersi ai principi morali scoraggino alcuni degli errori che attualmente diamo per scontati. Potremmo perdere la nostra libertà di discriminare a favore delle nostre tribù, Per esempio.
La perdita della libertà di comportarsi male non è sempre una brutta cosa, certo:negandoci la libertà di tenere schiavi, o per far lavorare i bambini nelle fabbriche, o fumare nei ristoranti sono segni di progresso. Ma siamo pronti per i signori etici:il silicio ipocrita limita le nostre opzioni? Potrebbero essere così bravi a farlo che non notiamo i recinti; ma è questo il futuro che vogliamo, una vita in uno zoo morale ben curato?
Questi problemi potrebbero sembrare inverosimili, ma sono già alle nostre porte. Immaginiamo di volere un'intelligenza artificiale per gestire le decisioni di allocazione delle risorse nel nostro sistema sanitario, Per esempio. Potrebbe fare in modo molto più equo ed efficiente di quanto gli umani possano gestire, con benefici per pazienti e contribuenti. Ma dovremmo specificare correttamente i suoi obiettivi (ad esempio per evitare pratiche discriminatorie), e priveremmo alcuni umani (ad esempio medici anziani) di parte della discrezione di cui attualmente godono. Quindi affrontiamo già i problemi di partenza e di destinazione. E diventeranno solo più difficili.
Questa non è la prima volta che una nuova potente tecnologia ha implicazioni morali. Parlando dei pericoli delle armi termonucleari nel 1954, Bertrand Russell sosteneva che per evitare di cancellarci "dobbiamo imparare a pensare in un modo nuovo". Ha esortato il suo ascoltatore a mettere da parte le alleanze tribali e "considerarti solo come membro di una specie biologica... la cui scomparsa nessuno di noi può desiderare".
Finora siamo sopravvissuti al rischio nucleare, ma ora abbiamo una nuova potente tecnologia con cui fare i conti - stessa, letteralmente, un nuovo modo di pensare. Per la nostra sicurezza, dobbiamo indirizzare questi nuovi pensatori nella giusta direzione, e farli agire bene per noi. Non è ancora chiaro se ciò sia possibile, ma se è così richiederà lo stesso spirito cooperativo, la stessa volontà di mettere da parte il tribalismo, che Russell aveva in mente.
Ma è qui che si ferma il parallelo. Evitare la guerra nucleare significa agire come al solito. Ottenere il futuro a lungo termine della vita con l'intelligenza artificiale significa un mondo molto diverso. Spesso si pensa che sia l'intelligenza generale che il ragionamento morale siano capacità unicamente umane. Ma la sicurezza sembra richiedere che pensiamo a loro come un pacchetto:se dobbiamo dare un'intelligenza generale alle macchine, dovremo dar loro autorità morale, pure. Ciò significa una fine radicale dell'eccezionalità umana. Motivo in più per pensare subito alla destinazione, e di stare attenti a ciò che desideriamo.