Cosa farebbe l'intelligenza artificiale generale del mondo umano? Credito:Shutterstock/Nathapol Kongseang
L'intelligenza artificiale può giocare a scacchi, guidare un'auto e diagnosticare problemi medici. Gli esempi includono AlphaGo di Google DeepMind, I veicoli a guida autonoma di Tesla, e Watson di IBM.
Questo tipo di intelligenza artificiale è indicato come Artificial Narrow Intelligence (ANI) – sistemi non umani in grado di svolgere un compito specifico. Incontriamo questo tipo ogni giorno, e il suo uso sta crescendo rapidamente.
Ma mentre sono state dimostrate molte capacità impressionanti, stiamo anche cominciando a vedere problemi. Il caso peggiore ha coinvolto un'auto di prova a guida autonoma che ha investito un pedone a marzo. Il pedone è morto e l'incidente è ancora in corso di accertamento.
La prossima generazione di AI
Con la prossima generazione di IA la posta in gioco sarà quasi sicuramente molto più alta.
L'intelligenza artificiale generale (AGI) avrà poteri computazionali avanzati e intelligenza di livello umano. I sistemi AGI saranno in grado di apprendere, risolvere problemi, adattarsi e migliorarsi. Faranno anche compiti oltre quelli per cui sono stati progettati.
È importante sottolineare che il loro tasso di miglioramento potrebbe essere esponenziale man mano che diventano molto più avanzati dei loro creatori umani. L'introduzione dell'AGI potrebbe portare rapidamente alla Super Intelligenza Artificiale (ASI).
Sebbene non esistano ancora sistemi AGI pienamente funzionanti, è stato stimato che saranno con noi ovunque tra il 2029 e la fine del secolo.
Quello che sembra quasi certo è che prima o poi arriveranno. Quando lo fanno, c'è una grande e naturale preoccupazione che non saremo in grado di controllarli.
I rischi associati ad AGI
Non c'è dubbio che i sistemi AGI potrebbero trasformare l'umanità. Alcune delle applicazioni più potenti includono la cura delle malattie, risolvere sfide globali complesse come il cambiamento climatico e la sicurezza alimentare, e l'avvio di un boom tecnologico mondiale.
Ma la mancata attuazione di controlli adeguati potrebbe portare a conseguenze catastrofiche.
Nonostante quello che vediamo nei film di Hollywood, è improbabile che le minacce esistenziali coinvolgano robot killer. Il problema non sarà di cattiveria, ma piuttosto uno di intelligenza, scrive il professore del MIT Max Tegmark nel suo libro del 2017 Life 3.0:Being Human in the Age of Artificial Intelligence.
È qui che la scienza dei sistemi uomo-macchina – nota come Fattori Umani ed Ergonomia – verrà alla ribalta. I rischi emergeranno dal fatto che i sistemi super-intelligenti identificheranno modi più efficienti di fare le cose, elaborare le proprie strategie per raggiungere gli obiettivi, e persino sviluppare obiettivi propri.
Immagina questi esempi:
Questi scenari sollevano lo spettro di disparati sistemi AGI in lotta tra loro, nessuno dei quali prende le preoccupazioni umane come mandato centrale.
Sono stati avanzati vari futuri distopici, compresi quelli in cui gli esseri umani alla fine diventano obsoleti, con la successiva estinzione del genere umano.
Altri hanno trasmesso interruzioni meno estreme ma comunque significative, compreso l'uso doloso di AGI per attacchi terroristici e informatici, l'eliminazione della necessità del lavoro umano, e sorveglianza di massa, per citarne solo alcuni.
Quindi c'è bisogno di indagini incentrate sull'uomo sui modi più sicuri per progettare e gestire l'AGI per ridurre al minimo i rischi e massimizzare i benefici.
Come controllare AGI
Il controllo dell'AGI non è così semplice come applicare semplicemente gli stessi tipi di controlli che tendono a tenere sotto controllo gli esseri umani.
Molti controlli sul comportamento umano si basano sulla nostra coscienza, le nostre emozioni, e l'applicazione dei nostri valori morali. Gli AGI non avranno bisogno di nessuno di questi attributi per danneggiarci. Le attuali forme di controllo non bastano.
Probabilmente, ci sono tre serie di controlli che richiedono lo sviluppo e il test immediato:
Human Factors and Ergonomics offre metodi che possono essere utilizzati per identificare, progettare e testare tali controlli molto prima dell'arrivo dei sistemi AGI.
Per esempio, è possibile modellare i controlli che esistono in un particolare sistema, modellare il probabile comportamento dei sistemi AGI all'interno di questa struttura di controllo, e identificare i rischi per la sicurezza.
Questo ci consentirà di identificare dove sono necessari nuovi controlli, disegnarli, e poi rimodellare per vedere se i rischi vengono rimossi di conseguenza.
Inoltre, i nostri modelli di cognizione e processo decisionale possono essere utilizzati per garantire che gli AGI si comportino in modo appropriato e abbiano valori umanistici.
Agisci adesso, non più tardi
Questo tipo di ricerca è in corso, ma non ce n'è abbastanza e non sono coinvolte abbastanza discipline.
Anche l'imprenditore tecnologico di alto profilo Elon Musk ha avvertito della "crisi esistenziale" che l'umanità deve affrontare dall'IA avanzata e ha parlato della necessità di regolamentare l'IA prima che sia troppo tardi.
Il prossimo decennio o giù di lì rappresenta un periodo critico. Esiste un'opportunità per creare sistemi AGI sicuri ed efficienti che possono avere benefici di vasta portata per la società e l'umanità.
Allo stesso tempo, un approccio normale in cui giochiamo al passo con i rapidi progressi tecnologici potrebbe contribuire all'estinzione della razza umana. La palla è nel nostro campo, ma non lo sarà ancora per molto.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.