• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Singolarità:come i governi possono fermare l'ascesa di ostili, super-IA inarrestabile

    I governi potrebbero incoraggiare l'integrazione dell'intelligenza umana e artificiale. Credito:sdecoret/Shutterstock

    L'invenzione di una super-intelligenza artificiale è stata un tema centrale nella fantascienza almeno dal XIX secolo. Dal racconto di E.M. Forster La macchina si ferma (1909) alla recente serie televisiva della HBO Westworld, gli scrittori hanno avuto la tendenza a dipingere questa possibilità come un disastro assoluto. Ma questo problema non è più di finzione. Eminenti scienziati e ingegneri contemporanei sono ora anche preoccupati che la super-IA possa un giorno superare l'intelligenza umana (un evento noto come "singolarità") e diventare il "peggiore errore dell'umanità".

    Le tendenze attuali suggeriscono che siamo pronti per entrare in una corsa agli armamenti internazionale per una tale tecnologia. Qualunque azienda high-tech o laboratorio governativo riesca a inventare la prima super-IA otterrà una tecnologia potenzialmente dominante a livello mondiale. È un premio in cui il vincitore prende tutto. Quindi per chi vuole fermare un evento del genere, la domanda è come scoraggiare questo tipo di corsa agli armamenti, o almeno incentivare i team in competizione a non tagliare gli angoli con la sicurezza dell'IA.

    Una super-IA solleva due sfide fondamentali per i suoi inventori, come hanno sottolineato il filosofo Nick Bostrom e altri. Uno è un problema di controllo, che è come assicurarsi che la super-IA abbia gli stessi obiettivi dell'umanità. Senza questo, l'intelligenza potrebbe deliberatamente, accidentalmente o per negligenza distruggono l'umanità:un "disastro dell'intelligenza artificiale".

    Il secondo è un problema politico, che è come garantire che i benefici di una super-intelligenza non vadano solo a una piccola élite, causando enormi disuguaglianze sociali e di ricchezza. Se si verifica una corsa agli armamenti super-IA, potrebbe portare i gruppi concorrenti a ignorare questi problemi per sviluppare la loro tecnologia più rapidamente. Ciò potrebbe portare a una super-IA di scarsa qualità o ostile.

    Una soluzione suggerita è quella di utilizzare la politica pubblica per rendere più difficile l'iscrizione alla gara al fine di ridurre il numero di gruppi in competizione e migliorare le capacità di coloro che partecipano. Meno gareggiano, minore sarà la pressione per tagliare gli angoli per vincere. Ma come possono i governi ridurre la concorrenza in questo modo?

    Di recente io e il mio collega Nicola Dimitri abbiamo pubblicato un articolo che ha cercato di rispondere a questa domanda. Per prima cosa abbiamo mostrato che in una tipica gara il vincitore prende tutto, come quello per costruire la prima super-IA, parteciperanno solo le squadre più competitive. Questo perché la probabilità di inventare effettivamente la super-IA è molto piccola, e partecipare alla gara è molto costoso a causa dei grandi investimenti in ricerca e sviluppo necessari.

    Infatti, questa sembra essere la situazione attuale con lo sviluppo di una più semplice IA "stretta". Le domande di brevetto per questo tipo di IA sono dominate da poche aziende, e la maggior parte della ricerca sull'IA viene svolta in sole tre regioni (Stati Uniti, Cina ed Europa). Sembrano anche essere molto pochi, se del caso, gruppi che stanno attualmente investendo nella costruzione di una super-IA.

    Ciò suggerisce che ridurre il numero di gruppi concorrenti non è la priorità più importante al momento. Ma anche con un numero inferiore di concorrenti in gara, l'intensità della concorrenza potrebbe ancora portare ai problemi sopra menzionati. Quindi, per ridurre l'intensità della competizione tra i gruppi che cercano di costruire una super-IA e aumentare le loro capacità, i governi potrebbero ricorrere agli appalti pubblici e alle tasse.

    Gli appalti pubblici si riferiscono a tutte le cose che i governi pagano alle aziende private per fornire, dal software per l'utilizzo nelle agenzie governative ai contratti per l'esecuzione dei servizi. I governi potrebbero imporre vincoli a qualsiasi fornitore di super-IA che richiedesse loro di affrontare i potenziali problemi, e supportare tecnologie complementari per migliorare l'intelligenza umana e integrarla con l'IA.

    Ma i governi potrebbero anche offrirsi di acquistare una versione meno che migliore di super-IA, creando efficacemente un "secondo premio" nella corsa agli armamenti e impedendogli di essere una competizione in cui il vincitore prende tutto. Con un premio intermedio, che potrebbe essere per inventare qualcosa di simile (ma non esattamente) a una super-IA, i gruppi concorrenti avranno un incentivo a investire e cooperare di più, riducendo l'intensità della concorrenza. Un secondo premio ridurrebbe anche il rischio di fallimento e giustificherebbe maggiori investimenti, contribuendo ad aumentare le capacità delle squadre in competizione.

    Per quanto riguarda le tasse, i governi potrebbero fissare l'aliquota fiscale sul gruppo che inventa la super-IA in base a quanto sia amichevole o ostile l'IA. Un'aliquota fiscale sufficientemente alta significherebbe essenzialmente la nazionalizzazione della super-IA. Ciò scoraggerebbe fortemente le aziende private dal tagliare scorciatoie per paura di perdere il loro prodotto a favore dello stato.

    Bene pubblico non monopolio privato

    Questa idea potrebbe richiedere un migliore coordinamento globale della tassazione e della regolamentazione della super-IA. Ma non sarebbe necessario coinvolgere tutti i governi. In teoria, un singolo paese o regione (come l'UE) potrebbe sostenere i costi e gli sforzi necessari per affrontare i problemi e l'etica della super-IA. Ma tutti i paesi ne trarrebbero beneficio e la super-IA diventerebbe un bene pubblico piuttosto che un inarrestabile monopolio privato.

    Ovviamente tutto ciò dipende dal fatto che la super-IA sia effettivamente una minaccia per l'umanità. E alcuni scienziati non pensano che lo sarà. Potremmo naturalmente eliminare i rischi della super-IA nel tempo. Alcuni pensano che gli umani potrebbero persino fondersi con l'IA.

    In ogni caso, il nostro pianeta e i suoi abitanti trarranno enormi benefici dall'assicurarci di ottenere il meglio dall'IA, una tecnologia ancora agli inizi. Per questo, abbiamo bisogno di una migliore comprensione del ruolo che il governo può svolgere.

    Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com