Credito:intelligenza artificiale-503593_1920/flickr
L'isteria sul futuro dell'intelligenza artificiale (AI) è ovunque. Sembra che non manchino notizie sensazionalistiche su come l'IA potrebbe curare le malattie, accelerare l'innovazione umana e migliorare la creatività umana. Basta guardare i titoli dei media, potresti pensare che stiamo già vivendo in un futuro in cui l'intelligenza artificiale si è infiltrata in ogni aspetto della società.
Sebbene sia innegabile che l'IA abbia aperto una serie di opportunità promettenti, ha anche portato all'emergere di una mentalità che può essere meglio descritta come "soluzionismo AI". Questa è la filosofia che, dati sufficienti dati, gli algoritmi di apprendimento automatico possono risolvere tutti i problemi dell'umanità.
Ma c'è un grosso problema con questa idea. Invece di supportare il progresso dell'IA, in realtà mette a repentaglio il valore dell'intelligenza delle macchine ignorando importanti principi di sicurezza dell'intelligenza artificiale e impostando aspettative non realistiche su ciò che l'intelligenza artificiale può davvero fare per l'umanità.
Soluzionismo AI
In pochi anni, Il soluzionismo dell'IA si è fatto strada dalle bocche degli evangelisti della tecnologia nella Silicon Valley alle menti dei funzionari governativi e dei responsabili politici di tutto il mondo. Il pendolo è passato dalla nozione distopica che l'IA distruggerà l'umanità alla convinzione utopica che il nostro salvatore algoritmico sia qui.
Ora stiamo vedendo i governi impegnarsi a sostenere le iniziative nazionali di intelligenza artificiale e competere in una corsa agli armamenti tecnologici e retorica per dominare il fiorente settore dell'apprendimento automatico. Per esempio, il governo del Regno Unito ha promesso di investire 300 milioni di sterline nella ricerca sull'intelligenza artificiale per posizionarsi come leader nel settore. Innamorato del potenziale trasformativo dell'IA, il presidente francese Emmanuel Macron si è impegnato a trasformare la Francia in un hub globale di intelligenza artificiale. Nel frattempo, il governo cinese sta aumentando la sua abilità nell'IA con un piano nazionale per creare un'industria dell'IA cinese del valore di 150 miliardi di dollari entro il 2030. Il soluzionismo dell'IA è in aumento ed è qui per restare.
Reti neurali:più facile a dirsi che a farsi
Mentre molti manifesti politici pubblicizzano gli effetti trasformativi dell'incombente "rivoluzione dell'intelligenza artificiale", tendono a sottovalutare la complessità dell'implementazione di sistemi avanzati di machine learning nel mondo reale.
Una delle varietà più promettenti di tecnologie AI sono le reti neurali. Questa forma di apprendimento automatico è vagamente modellata sulla struttura neuronale del cervello umano, ma su scala molto più piccola. Molti prodotti basati sull'intelligenza artificiale utilizzano le reti neurali per dedurre modelli e regole da grandi volumi di dati. Ma quello che molti politici non capiscono è che aggiungere semplicemente una rete neurale a un problema non significa automaticamente che troverai una soluzione. Allo stesso modo, aggiungere una rete neurale a una democrazia non significa che sarà istantaneamente più inclusiva, equo o personalizzato.
Sfidare la burocrazia dei dati
I sistemi di intelligenza artificiale hanno bisogno di molti dati per funzionare, ma il settore pubblico in genere non dispone dell'infrastruttura dati appropriata per supportare l'apprendimento automatico avanzato. La maggior parte dei dati rimane archiviata in archivi offline. Le poche fonti di dati digitalizzate esistenti tendono a essere sepolte nella burocrazia. Più spesso che non, i dati sono distribuiti tra diversi dipartimenti governativi, ciascuno dei quali richiede autorizzazioni speciali per l'accesso. Soprattutto, il settore pubblico in genere manca del talento umano con le giuste capacità tecnologiche per sfruttare appieno i vantaggi dell'intelligenza artificiale.
Per queste ragioni, il sensazionalismo sull'IA ha attirato molti critici. Stuart Russel, un professore di informatica a Berkeley, ha a lungo sostenuto un approccio più realistico che si concentri su semplici applicazioni quotidiane dell'IA invece dell'ipotetica acquisizione da parte di robot super-intelligenti. Allo stesso modo, professore di robotica del MIT, Rodney Brooks, scrive che "quasi tutte le innovazioni nella robotica e nell'intelligenza artificiale portano lontano, lontano, più a lungo per essere davvero ampiamente dispiegato di quanto le persone sul campo e fuori dal campo immaginino".
Una delle molte difficoltà nell'implementazione di sistemi di apprendimento automatico è che l'intelligenza artificiale è estremamente suscettibile agli attacchi avversari. Ciò significa che un'IA dannosa può prendere di mira un'altra IA per costringerla a fare previsioni errate o a comportarsi in un certo modo. Molti ricercatori hanno messo in guardia contro la diffusione dell'IA senza adeguati standard di sicurezza e meccanismi di difesa. Ancora, La sicurezza dell'IA rimane un argomento spesso trascurato.
L'apprendimento automatico non è magico
Se vogliamo raccogliere i benefici e ridurre al minimo i potenziali danni dell'IA, dobbiamo iniziare a pensare a come l'apprendimento automatico può essere applicato in modo significativo a specifiche aree del governo, affari e società. Ciò significa che dobbiamo discutere sull'etica dell'IA e sulla sfiducia che molte persone hanno nei confronti dell'apprendimento automatico.
Più importante, dobbiamo essere consapevoli dei limiti dell'IA e di dove gli esseri umani devono ancora prendere l'iniziativa. Invece di dipingere un quadro irrealistico del potere dell'IA, è importante fare un passo indietro e separare le effettive capacità tecnologiche dell'IA dalla magia.
Per molto tempo, Facebook credeva che problemi come la diffusione di disinformazione e incitamento all'odio potessero essere identificati e fermati algoritmicamente. Ma sotto la recente pressione dei legislatori, l'azienda si è rapidamente impegnata a sostituire i suoi algoritmi con un esercito di oltre 10, 000 revisori umani.
La professione medica ha anche riconosciuto che l'IA non può essere considerata una soluzione per tutti i problemi. Il programma IBM Watson for Oncology era un pezzo di intelligenza artificiale che doveva aiutare i medici a curare il cancro. Anche se è stato sviluppato per fornire i migliori consigli, gli esperti umani trovavano difficile fidarsi della macchina. Di conseguenza, il programma AI è stato abbandonato nella maggior parte degli ospedali dove è stato sperimentato.
Problemi simili sono sorti in ambito legale quando gli algoritmi sono stati utilizzati nei tribunali negli Stati Uniti per condannare i criminali. Un algoritmo calcolava i punteggi di valutazione del rischio e consigliava i giudici sulla condanna. Si è scoperto che il sistema amplificava la discriminazione razziale strutturale ed è stato successivamente abbandonato.
Questi esempi dimostrano che non esiste una soluzione AI per tutto. Usare l'intelligenza artificiale semplicemente per il bene dell'intelligenza artificiale potrebbe non essere sempre produttivo o utile. Non tutti i problemi possono essere affrontati al meglio applicandovi l'intelligenza artificiale. Questa è la lezione cruciale per tutti coloro che mirano a incrementare gli investimenti nei programmi nazionali di IA:tutte le soluzioni hanno un costo e non tutto ciò che può essere automatizzato dovrebbe esserlo.
Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.