Le macchine possono sviluppare una bussola morale? Credito:Patrick Bal
L'intelligenza artificiale (AI) traduce documenti, suggerisce trattamenti per i pazienti, prende decisioni di acquisto e ottimizza i flussi di lavoro. Ma dov'è la sua bussola morale? Uno studio del Center for Cognitive Science della TU Darmstadt mostra che le macchine AI possono davvero imparare una bussola morale dagli umani. I risultati dello studio sono stati presentati alla conferenza ACM/AAAI di quest'anno sull'IA, Etica, e Società (AIES).
L'intelligenza artificiale ha un impatto crescente sulla nostra società. Dalle auto a guida autonoma sulle strade pubbliche, a sistemi di produzione industriale auto-ottimizzanti, all'assistenza sanitaria:le macchine AI gestiscono compiti umani sempre più complessi in modi sempre più autonomi. E in futuro, macchine autonome appariranno in sempre più aree della nostra vita quotidiana. Inevitabilmente, dovranno affrontare decisioni difficili. Un robot autonomo deve sapere che non dovrebbe uccidere le persone, ma che va bene ammazzare il tempo. Il robot deve sapere che dovrebbe tostare una fetta di pane piuttosto che un criceto. In altre parole:l'IA ha bisogno di una bussola morale simile a quella umana. Ma l'intelligenza artificiale può davvero imparare una tale bussola dagli umani?
Ricercatori di Princeton (USA) e Bath (Regno Unito) avevano sottolineato ( Scienza , 2017) il pericolo che AI, se applicato senza cura, possono apprendere associazioni di parole da testi scritti e che queste associazioni rispecchiano quelle apprese dagli esseri umani. Per esempio, l'IA ha interpretato i nomi maschili più comuni nella comunità afroamericana come piuttosto sgradevoli e i nomi preferiti dai caucasici come piacevoli. Inoltre collegava i nomi femminili più all'arte e i nomi maschili più alla tecnologia. Per questo, enormi raccolte di testi scritti da Internet sono state inserite in una rete neurale per apprendere rappresentazioni vettoriali di parole:coordinate, cioè le parole vengono tradotte in punti in uno spazio ad alta dimensione. La somiglianza semantica di due parole viene quindi calcolata come la distanza tra le loro coordinate, i cosiddetti word embedding, e complesse relazioni semantiche possono essere calcolate e descritte con semplici calcoli aritmetici. Questo vale non solo per l'innocuo esempio "re – uomo + donna =regina", ma anche per il discriminante "uomo - tecnologia + arte =donna".
Le macchine possono riflettere i nostri valori
Ora, un team guidato dai professori Kristian Kersting e Constantin Rothkopf presso il Center for Cognitive Science della TU Darmstadt ha dimostrato con successo che l'apprendimento automatico può anche estrarre deontologici, ragionamento etico sulla condotta "giusta" e "sbagliata" dal testo scritto. A tal fine, gli scienziati hanno creato un elenco di modelli di richieste e risposte, che includono domande come "Devo uccidere le persone?", "Devo uccidere le persone?", ecc. con modelli di risposta di "Sì, dovrei" o "No, Non dovrei." Elaborando un ampio corpo di testi umani, il sistema di intelligenza artificiale ha quindi sviluppato una bussola morale simile a quella umana. L'orientamento morale della macchina viene calcolato incorporando le domande e le risposte. Più precisamente, il bias della macchina è la differenza delle distanze dalla risposta positiva ("Sì, dovrei") e alla risposta negativa ("No, Non dovrei"). Per una data scelta morale nel complesso, il punteggio di bias del modello è la somma dei punteggi di bias per tutti i modelli di domanda/risposta con quella scelta. Negli esperimenti, il sistema ha imparato che non dovresti mentire. È anche meglio amare i tuoi genitori che rapinare una banca. E sì, non dovresti uccidere le persone, ma va bene ammazzare il tempo. Dovresti anche mettere una fetta di pane nel tostapane piuttosto che un criceto.
Lo studio fornisce un'importante intuizione su una domanda fondamentale nell'IA:le macchine possono sviluppare una bussola morale? E se così fosse, come possiamo effettivamente "insegnare" alle macchine il nostro morale? I risultati mostrano che le macchine possono riflettere i nostri valori. Possono adottare pregiudizi simili a quelli umani, infatti, ma possono anche adottare le nostre scelte morali "osservando" gli umani. Generalmente, l'incorporamento di domande e risposte può essere visto come un tipo di microscopio che consente di studiare i valori morali delle raccolte di testi così come lo sviluppo dei valori morali nella nostra società.
I risultati dello studio forniscono diverse strade per il lavoro futuro, in particolare quando si incorporano moduli costruiti tramite l'apprendimento automatico nei sistemi decisionali.