Un nuovo documento della RAND Corporation rileva che l'intelligenza artificiale ha il potenziale per capovolgere le basi della deterrenza nucleare entro il 2040.
Mentre le macchine del giorno del giudizio controllate dall'intelligenza artificiale sono considerate improbabili, i rischi dell'intelligenza artificiale per la sicurezza nucleare risiedono invece nel suo potenziale di incoraggiare gli esseri umani a correre rischi potenzialmente apocalittici, secondo la carta.
Durante la Guerra Fredda, la condizione di mutua distruzione assicurata manteneva una pace precaria tra le superpotenze assicurando che ogni attacco sarebbe stato accolto da una rappresaglia devastante. La distruzione reciproca assicurata ha quindi incoraggiato la stabilità strategica riducendo gli incentivi per entrambi i paesi a intraprendere azioni che potrebbero degenerare in una guerra nucleare.
La nuova pubblicazione RAND afferma che nei prossimi decenni, l'intelligenza artificiale ha il potenziale per erodere la condizione di distruzione reciproca assicurata e minare la stabilità strategica. Tecnologie di sensori migliorate potrebbero introdurre la possibilità che forze di rappresaglia come sottomarini e missili mobili possano essere mirate e distrutte.
Le nazioni possono essere tentate di perseguire capacità di primo colpo come mezzo per ottenere potere contrattuale sui loro rivali anche se non hanno intenzione di effettuare un attacco, dicono i ricercatori. Questo mina la stabilità strategica perché anche se lo stato che possiede queste capacità non ha intenzione di usarle, l'avversario non può esserne sicuro.
"La connessione tra guerra nucleare e intelligenza artificiale non è nuova, infatti i due hanno una storia intrecciata, " disse Edward Geist, coautore del documento e ricercatore politico associato presso la RAND Corporation, un'organizzazione senza scopo di lucro, organizzazione di ricerca apartitica. "Gran parte del primo sviluppo dell'IA è stato fatto a sostegno degli sforzi militari o con obiettivi militari in mente".
Ha detto che un esempio di tale lavoro è stato il Survivable Adaptive Planning Experiment negli anni '80 che ha cercato di utilizzare l'intelligenza artificiale per tradurre i dati di ricognizione in piani di targeting nucleare.
In circostanze fortuite, l'intelligenza artificiale potrebbe anche migliorare la stabilità strategica migliorando la precisione nella raccolta e nell'analisi dell'intelligence, secondo la carta. Mentre l'intelligenza artificiale potrebbe aumentare la vulnerabilità delle forze di secondo colpo, analisi migliori per il monitoraggio e l'interpretazione delle azioni avversarie potrebbero ridurre calcoli o interpretazioni errate che potrebbero portare a un'escalation involontaria.
I ricercatori affermano che, dati i futuri miglioramenti, è possibile che alla fine i sistemi di IA sviluppino capacità che, mentre fallibile, sarebbero meno soggetti a errori rispetto alle loro alternative umane e quindi si stabilizzerebbero a lungo termine.
"Alcuni esperti temono che una maggiore dipendenza dall'intelligenza artificiale possa portare a nuovi tipi di errori catastrofici, " ha detto Andrew Lohn, coautore dell'articolo e ingegnere associato presso RAND. "Potrebbe esserci pressione per utilizzare l'IA prima che sia tecnologicamente matura, o può essere suscettibile di sovversione contraddittoria. Perciò, mantenere la stabilità strategica nei prossimi decenni può rivelarsi estremamente difficile e tutte le potenze nucleari devono partecipare alla coltivazione di istituzioni che aiutino a limitare il rischio nucleare".
I ricercatori RAND hanno basato la loro prospettiva sulle informazioni raccolte durante una serie di workshop con esperti in questioni nucleari, rami del governo, ricerca sull'intelligenza artificiale, Politica dell'IA e sicurezza nazionale.
"L'intelligenza artificiale aumenterà il rischio di una guerra nucleare?" è disponibile su http://www.rand.org.
La prospettiva fa parte di uno sforzo più ampio per immaginare le sfide critiche alla sicurezza nel mondo del 2040, considerando gli effetti della politica, tecnologico, sociale, e le tendenze demografiche che daranno forma a tali sfide alla sicurezza nei prossimi decenni.
Il finanziamento per l'iniziativa Security 2040 è stato fornito da doni dei sostenitori di RAND e proventi delle operazioni.
La ricerca è stata condotta all'interno del RAND Center for Global Risk and Security, che lavora attraverso la RAND Corporation per sviluppare ricerca multidisciplinare e analisi delle politiche che affrontano i rischi sistemici per la sicurezza globale. Il centro si avvale dell'esperienza di RAND per integrare ed espandere la ricerca RAND in molti campi, compresa la sicurezza, economia, Salute, e tecnologia.