Credito:Università di Buffalo
Elon Musk nel 2020 ha affermato che l'intelligenza artificiale (AI) entro cinque anni avrebbe superato l'intelligenza umana sulla strada per diventare "un dittatore immortale" sull'umanità. Ma un nuovo libro co-scritto da un professore di filosofia dell'Università di Buffalo sostiene che ciò non accadrà, né entro il 2025, né mai.
Barry Smith, Ph.D., SUNY Distinguished Professor presso il Dipartimento di Filosofia del College of Arts and Sciences di UB, e Jobst Landgrebe, Ph.D., fondatore di Cognotekt, una società di intelligenza artificiale tedesca, sono co-autori di "Why Machines Will Mai governare il mondo:intelligenza artificiale senza paura."
Il loro libro presenta un potente argomento contro la possibilità di progettare macchine in grado di superare l'intelligenza umana.
L'apprendimento automatico e tutte le altre applicazioni software funzionanti, gli orgogliosi risultati di coloro che sono coinvolti nella ricerca sull'IA, sono per Smith e Landgrebe lontane da qualsiasi cosa assomigli alle capacità degli esseri umani. Inoltre, sostengono che qualsiasi progresso incrementale che si sta svolgendo nel campo della ricerca sull'IA in termini pratici non lo avvicinerà alle possibilità di pieno funzionamento del cervello umano.
Smith e Landgrebe offrono un esame critico delle proiezioni ingiustificabili dell'IA, come le macchine che si staccano dall'umanità, si auto-replicano e diventano "agenti etici completi". Non ci può essere una volontà di macchina, dicono. Ogni singola applicazione di intelligenza artificiale si basa sulle intenzioni degli esseri umani, comprese le intenzioni di produrre output casuali.
Ciò significa che la Singolarità, un punto in cui l'IA diventa incontrollabile e irreversibile (come un momento Skynet del franchise di film "Terminator") non si verificherà. Affermazioni selvagge contrarie servono solo a gonfiare il potenziale dell'IA e distorcere la comprensione pubblica della natura, delle possibilità e dei limiti della tecnologia.
Superando i confini di diverse discipline scientifiche, Smith e Landgrebe sostengono che l'idea di un'intelligenza artificiale generale (AGI) - la capacità dei computer di emulare e andare oltre l'intelligenza generale degli esseri umani - si basa su impossibilità matematiche fondamentali che sono analoghe nella fisica all'impossibilità di costruire una macchina a moto perpetuo. L'intelligenza artificiale che corrisponderebbe all'intelligenza generale degli esseri umani è impossibile a causa dei limiti matematici su ciò che può essere modellato ed è "calcolabile". Questi limiti sono accettati praticamente da tutti coloro che lavorano nel settore; eppure finora non sono riusciti ad apprezzare le loro conseguenze per ciò che un'IA può ottenere.
"Per superare queste barriere sarebbe necessaria una rivoluzione nella matematica che sarebbe di maggiore importanza rispetto all'invenzione del calcolo da parte di Newton e Leibniz più di 350 anni fa", afferma Smith, uno dei filosofi contemporanei più citati al mondo. "Non stiamo trattenendo il respiro."
Landgrebe sottolinea che, "Come si può verificare parlando con matematici e fisici che lavorano ai limiti delle rispettive discipline, non c'è nulla nemmeno all'orizzonte che suggerisca che una rivoluzione di questo tipo potrebbe un giorno essere realizzabile. La matematica non può pienamente modellare i comportamenti di sistemi complessi come l'organismo umano", afferma.
L'intelligenza artificiale ha molte storie di successo molto impressionanti e considerevoli finanziamenti sono stati dedicati all'avanzamento della sua frontiera oltre i risultati in campi ristretti e ben definiti come la traduzione di testi e il riconoscimento di immagini. Gran parte dell'investimento per portare avanti la tecnologia in aree che richiedono la controparte macchina dell'intelligence generale potrebbe, secondo gli autori, essere denaro buttato via.
"Il generatore di testo GPT-3 si è dimostrato in grado di produrre diversi tipi di output convincenti in molti campi divergenti", afferma Smith. "Purtroppo, i suoi utenti riconoscono presto che mescolati a questi output ci sono anche errori imbarazzanti, così che gli stessi risultati convincenti hanno cominciato ad apparire come nient'altro che astuti trucchi da salotto."
Il ruolo dell'IA nel sequenziare il genoma umano ha portato a suggerimenti su come potrebbe aiutare a trovare cure per molte malattie umane; tuttavia, dopo 20 anni di ulteriori ricerche (a cui hanno partecipato sia Smith che Landgrebe), poco è stato prodotto per supportare un ottimismo di questo tipo.
"In alcune impostazioni confinate completamente determinate da regole, l'apprendimento automatico può essere utilizzato per creare algoritmi che superano le prestazioni degli esseri umani", afferma Smith. "Ma questo non significa che possano 'scoprire' le regole che regolano qualsiasi attività che si svolge in un ambiente aperto, che è ciò che il cervello umano realizza ogni giorno."
Gli scettici sulla tecnologia, ovviamente, non hanno un record perfetto. Si sono sbagliati riguardo a scoperte che vanno dal volo spaziale alla nanotecnologia. Ma Smith e Landgrebe affermano che le loro argomentazioni si basano sulle implicazioni matematiche della teoria dei sistemi complessi. Per ragioni matematiche, l'IA non può imitare il modo in cui funziona il cervello umano. In effetti, gli autori affermano che è impossibile progettare una macchina che possa competere con le prestazioni cognitive di un corvo.
"Un AGI è impossibile", afferma Smith. "Come mostra il nostro libro, non può esistere un'intelligenza artificiale generale perché è oltre il confine di ciò che è anche in linea di principio realizzabile per mezzo di una macchina". + Esplora ulteriormente