Credito:Università dell'Ontario occidentale
Mentre David Bowman, il membro dell'equipaggio sopravvissuto a bordo della navicella spaziale Discovery One in 2001:Odissea nello spazio di Stanley Kubrick, smonta HAL 9000, il computer senziente implora in modo insensibile, voce monotona:
"Ho paura, Davide."
"Dave, la mia mente sta andando. Posso sentirlo."
Come coscienza di HAL – o meglio, la sua logica – svanisce, muore cantando Daisy Bell, la prima canzone "cantata" da un computer reale. Con la minaccia rimossa, tutto sembra essere di nuovo a posto.
Celebrando il suo 50° anniversario questo mese, Il capolavoro di Kubrick ha gettato un'ombra sul genere sin dalla sua prima. La sua influenza si estende oltre le rappresentazioni dello spazio e dei viaggi spaziali, toccando più di Star Wars, Alieno o Blade Runner.
Per esempio, il suo effetto sulla nostra visione dell'intelligenza artificiale (AI) è palpabile.
Pensa ad Alexa di Amazon, chi, come HAL, ascolta qualunque cosa tu dica.
Ma ora, cinque decenni dopo, ci siamo evoluti oltre l'incubo di Kubrick di un senziente, macchina minacciosa? Come ha la nostra comprensione di, e relazione con, L'intelligenza artificiale è cambiata? Abbiamo motivo di temere le macchine che programmiamo?
Per Catherine Stinson, che ha recentemente completato una borsa di studio post-dottorato presso il Rotman Institute of Philosophy di Western, la visione di Kubrick, sebbene molto diverso dallo stato attuale dell'IA, è ancora una minaccia incombente. La minaccia, però, non è la macchina
"All'epoca le persone pensavano all'IA in modo molto diverso, il pericolo era che sarebbe stato un agente che avrebbe agito in modo diverso da noi, con priorità diverse da quelle che abbiamo, " lei disse.
"Questa è meno la preoccupazione ora. Non saranno le interazioni uno contro uno (con una macchina senziente) che non sappiamo come affrontare. Sarà qualcosa in cui abbiamo messo tutto il nostro male". , e ora si tratta di fare cose che sono un'estensione dei problemi degli umani, ma su una scala più grande che non avremmo potuto immaginare. Non è tanto che le macchine siano diverse da noi, ma riproducono i problemi degli umani".
Parte del problema, Stinson ha spiegato, Gli esseri umani sono quelli che programmano l'IA. Come possono gli esseri umani programmare macchine etiche? Le macchine possono essere etiche? Ci consideriamo competenti nel prendere decisioni etiche perché decidiamo regolarmente tra giusto e sbagliato, lei disse. Ci affidiamo a un istinto che sappiamo bene dal male nelle situazioni quotidiane.
"Ma nelle situazioni più complicate che si presentano, come le auto a guida autonoma, è davvero difficile, anche per chi ha una formazione in etica, per progettare qual è la cosa giusta da costruire in esso, " ha osservato Stinson.
Ad esempio, se l'auto evita di sbattere contro un pedone, anche se porterà alla morte del conducente? Come valuti le due diverse vite a rischio? Programmate l'auto per salvare gli occupanti del veicolo o coloro con i quali potrebbe scontrarsi?
"Non so come prendere quel tipo di decisione. Non so che quella decisione sia qualcosa che la persona media sa come prendere. Serve un approccio più attento e qualcuno con più esperienza deve essere coinvolto. Ma è difficile vedere che c'è quel bisogno, perché tutti pensano di essere esperti, " Ha aggiunto Stinson.
Gli individui che seguono corsi di ingegneria e tecnologia dovrebbero essere formati in etica, lei ha aggiunto. Salvo ciò, le aziende che lavorano nell'IA potrebbero beneficiare di un'etica interna. Le istituzioni accademiche richiedono sempre più a ingegneri e informatici di seguire corsi che toccano l'argomento. Sebbene la questione delle "macchine etiche" sia oggetto di dibattito, il semplice fatto che possiamo programmarli per compiere atti giusti o sbagliati li coinvolge in un "gioco etico, " ha detto Stinson.
"Forse potremmo programmare una macchina per fare la cosa giusta più spesso di quanto faremmo. Ma c'è motivo di temere? Certo. Ci sono macchine utilizzate nel sistema giudiziario negli Stati Uniti, prendere decisioni che forse non sono quelle giuste. Non siamo sicuri di come stiano prendendo quelle decisioni e non c'è responsabilità per chi è la colpa se prendono la decisione sbagliata, " ha osservato.
Per la condanna in particolare, ci sono programmi di intelligenza artificiale che aiutano i giudici a decidere quale dovrebbe essere la pena giusta per qualcuno condannato per un crimine. L'algoritmo è progettato per rendere la sentenza meno distorta tenendo conto di fattori del passato della persona, in che tipo di quartiere sono cresciuti, che tipo di persone conoscevano, precedenti arresti, età del primo coinvolgimento con la polizia, eccetera.
Tutte queste cose non sono informazioni neutre, ha detto Stinson. Tali programmi di intelligenza artificiale sono stati criticati per aver rafforzato gli stereotipi che erano stati progettati per evitare.
"Non sappiamo quali siano i pericoli. Parte della preoccupazione per i pericoli è cercare di prevedere quali potrebbero essere, e per decidere cosa apprezziamo, e che tipo di cose vogliamo che succedano, per comodità, " ha detto Stinson.
Tim Blackmore, un professore della Facoltà di Scienze dell'Informazione e dei Media, ha insegnato 2001:Odissea nello spazio agli studenti per più di un decennio. Ha fatto eco a Stinson, notando i pericoli dell'IA risiedono nell'elemento umano in gioco. Per lui, qualunque forma assuma nei film o nei libri, L'intelligenza artificiale è sempre stata un'estensione dell'essere umano.
"Le macchine pensanti sono spesso descritte come consapevoli della propria esistenza e consapevoli dei problemi esistenziali. Sono uno dei tanti specchi che gli umani usano per riflettere cosa significa essere umani, " disse Blackmore.
E questo è l'incubo.
"Fino ad ora, è stato un tipo di incubo da "macchina che governa il mondo". Viene dagli anni '60 ed è molto influenzato dal Vietnam, così come l'idea di questi mainframe, queste grandi macchine, facevano parte di una visione del mondo che ci stava portando in un disumano, modo di vivere determinista che porterebbe a genocidi, " Lui ha spiegato.
Ma la minaccia oggi non risiede nella nostra visione dell'IA come una macchina del futuro che può superarci o conquistarci.
"Immaginiamo molto meno WALL-E - la macchina di supporto. Ma questo è molto di più. Non sono le macchine che sono un problema; sono gli umani. Le persone fanno cose cattive, " ha osservato Blackmore, aggiungendo che è nervoso per le macchine "aiutanti" che abbracciamo ciecamente.
"Sono preoccupato per questi dischi e cilindri o qualsiasi altra cosa Amazon, Google o Facebook vogliono entrare in casa nostra. La gente vuole questo; è un gadget ed è bello perché è così difficile prendere il cellulare e scriverci qualcosa o parlarci. Entriamo nel trogolo e succhiamo quella roba, e poi avremo terabyte di dati che volano in pool dove potrebbero essere cancellati per tutto. Quei dati possono essere manipolati da agenti di intelligenza artificiale che saranno sempre più bravi a cercare come ingannare gli esseri umani, " Lui continuò.
"Come si svilupperà questa tecnologia in modo che le persone possano spingere le persone in giro - questo è ciò che tende ad essere una cattiva notizia per noi. La rivolta dei robot è più in basso nella mia lista".