• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  Science >> Scienza >  >> Astronomia
    L’intelligenza artificiale potrebbe essere la causa della nostra incapacità di entrare in contatto con civiltà aliene

    C'è un numero incredibile di pianeti là fuori. Credito:NASA/telescopio James Webb

    L’intelligenza artificiale (AI) ha fatto progressi a un ritmo sorprendente negli ultimi anni. Alcuni scienziati stanno ora guardando allo sviluppo della superintelligenza artificiale (ASI), una forma di intelligenza artificiale che non solo supererebbe l'intelligenza umana ma non sarebbe vincolata dalle velocità di apprendimento degli esseri umani.



    E se questo traguardo non fosse semplicemente un risultato straordinario? E se rappresentasse anche un formidabile collo di bottiglia nello sviluppo di tutte le civiltà, così impegnativo da ostacolarne la sopravvivenza a lungo termine?

    Questa idea è al centro di un articolo di ricerca che ho recentemente pubblicato su Acta Astronautica . L'intelligenza artificiale potrebbe essere il "grande filtro" dell'universo, una soglia così difficile da superare da impedire alla maggior parte della vita di evolversi in civiltà capaci di viaggiare nello spazio?

    Questo è un concetto che potrebbe spiegare perché la ricerca di intelligenza extraterrestre (SETI) non ha ancora rilevato le firme di civiltà tecniche avanzate in altre parti della galassia.

    L’ipotesi del grande filtro è in definitiva una proposta di soluzione al paradosso di Fermi. Questo ci chiede perché, in un universo vasto e abbastanza antico da ospitare miliardi di pianeti potenzialmente abitabili, non abbiamo rilevato alcun segno di civiltà aliene. L'ipotesi suggerisce che ci siano ostacoli insormontabili nella linea temporale evolutiva delle civiltà che impediscono loro di svilupparsi in entità spaziali.

    Credo che l’emergere dell’ASI potrebbe essere un tale filtro. Il rapido progresso dell'intelligenza artificiale, che potrebbe portare all'ASI, potrebbe intersecarsi con una fase critica nello sviluppo di una civiltà:la transizione da una specie monoplanetaria a una specie multiplanetaria.

    È qui che molte civiltà potrebbero vacillare, con l'intelligenza artificiale che fa progressi molto più rapidi della nostra capacità di controllarla o di esplorare e popolare in modo sostenibile il nostro sistema solare.

    La sfida con l’intelligenza artificiale, e in particolare con l’ASI, risiede nella sua natura autonoma, autoamplificante e migliorativa. Possiede il potenziale per migliorare le proprie capacità a una velocità che supera le nostre linee temporali evolutive senza l'intelligenza artificiale.

    Il rischio che qualcosa vada storto è enorme e porterà alla caduta sia delle civiltà biologiche che di quelle basate sull’intelligenza artificiale prima che abbiano la possibilità di diventare multiplanetari. Ad esempio, se le nazioni si affidassero sempre più e cedessero il potere a sistemi di intelligenza artificiale autonomi che competono tra loro, le capacità militari potrebbero essere utilizzate per uccidere e distruggere su una scala senza precedenti. Ciò potrebbe potenzialmente portare alla distruzione della nostra intera civiltà, compresi gli stessi sistemi di intelligenza artificiale.

    In questo scenario, stimo che la longevità tipica di una civiltà tecnologica potrebbe essere inferiore a 100 anni. Questo è più o meno il tempo che intercorre tra la capacità di ricevere e trasmettere segnali tra le stelle (1960) e l'apparizione stimata dell'ASI (2040) sulla Terra. Si tratta di una durata allarmante se confrontata con la scala temporale cosmica di miliardi di anni.

    Questa stima, se collegata a versioni ottimistiche dell’equazione di Drake – che tenta di stimare il numero di civiltà extraterrestri attive e comunicative nella Via Lattea – suggerisce che, in un dato momento, ci sono solo una manciata di civiltà intelligenti là fuori. Inoltre, come noi, le loro attività tecnologiche relativamente modeste potrebbero renderli piuttosto difficili da individuare.

    Sveglia

    Questa ricerca non è semplicemente un avvertimento sulla potenziale catastrofe. Serve come un campanello d'allarme affinché l'umanità stabilisca solidi quadri normativi per guidare lo sviluppo dell'intelligenza artificiale, compresi i sistemi militari.

    Non si tratta solo di prevenire l’uso malevolo dell’intelligenza artificiale sulla Terra; si tratta anche di garantire che l’evoluzione dell’intelligenza artificiale sia in linea con la sopravvivenza a lungo termine della nostra specie. Ciò suggerisce che dobbiamo investire più risorse per diventare una società multiplanetaria il più presto possibile, un obiettivo che è rimasto in sospeso sin dai giorni esaltanti del progetto Apollo, ma che recentemente è stato riacceso dai progressi compiuti dalle aziende private.

    Come ha osservato lo storico Yuval Noah Harari, nulla nella storia ci ha preparato all’impatto dell’introduzione di entità non coscienti e super-intelligenti sul nostro pianeta. Recentemente, le implicazioni del processo decisionale autonomo in materia di IA hanno portato a richieste da parte di importanti leader del settore per una moratoria sullo sviluppo dell'IA, fino a quando non sarà possibile introdurre una forma responsabile di controllo e regolamentazione.

    Ma anche se tutti i paesi accettassero di rispettare norme e regolamenti rigorosi, sarebbe difficile tenere a freno le organizzazioni canaglia.

    L’integrazione dell’intelligenza artificiale autonoma nei sistemi di difesa militare deve essere un’area di particolare preoccupazione. Esistono già prove del fatto che gli esseri umani cederanno volontariamente un potere significativo a sistemi sempre più capaci, perché potranno svolgere compiti utili molto più rapidamente ed efficacemente senza l’intervento umano. I governi sono quindi riluttanti a regolamentare questo settore, dati i vantaggi strategici offerti dall'intelligenza artificiale, come è stato recentemente e devastantemente dimostrato a Gaza.

    Ciò significa che siamo già pericolosamente vicini al precipizio in cui le armi autonome operano oltre i confini etici e aggirano il diritto internazionale. In un mondo del genere, cedere il potere ai sistemi di intelligenza artificiale per ottenere un vantaggio tattico potrebbe inavvertitamente innescare una catena di eventi altamente distruttivi in ​​rapida escalation. In un batter d'occhio, l'intelligenza collettiva del nostro pianeta potrebbe essere cancellata.

    L’umanità si trova a un punto cruciale della sua traiettoria tecnologica. Le nostre azioni ora potrebbero determinare se diventeremo una civiltà interstellare duratura o soccomberemo alle sfide poste dalle nostre stesse creazioni.

    Usare SETI come lente attraverso la quale possiamo esaminare il nostro sviluppo futuro aggiunge una nuova dimensione alla discussione sul futuro dell’IA. Spetta a tutti noi garantire che quando raggiungiamo le stelle, non lo facciamo come un ammonimento per altre civiltà, ma come un faro di speranza:una specie che ha imparato a prosperare insieme all'intelligenza artificiale.

    Ulteriori informazioni: Michael A. Garrett, L'intelligenza artificiale è il grande filtro che rende rare nell'universo le civiltà tecniche avanzate?, Acta Astronautica (2024). DOI:10.1016/j.actaastro.2024.03.052

    Informazioni sul giornale: Acta Astronautica

    Fornito da The Conversation

    Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com