Credito:Shutterstock
L'intelligenza artificiale (AI) sta già prendendo decisioni nei settori del business, dell'assistenza sanitaria e della produzione. Ma gli algoritmi di intelligenza artificiale generalmente ricevono ancora aiuto dalle persone che applicano i controlli e fanno la chiamata finale.
Cosa accadrebbe se i sistemi di intelligenza artificiale dovessero prendere decisioni indipendenti e quelle che potrebbero significare la vita o la morte per gli esseri umani?
La cultura pop ha rappresentato a lungo la nostra generale sfiducia nei confronti dell'IA. Nel film di fantascienza del 2004 "I, Robot", il detective Del Spooner (interpretato da Will Smith) sospetta dei robot dopo essere stato salvato da uno di loro da un incidente d'auto, mentre una ragazza di 12 anni è stata lasciata annegare. Dice:"Ero la scelta logica. Calcolava che avevo il 45% di possibilità di sopravvivenza. Sarah aveva solo l'11% di possibilità. Quello era il bambino di qualcuno, l'11% è più che sufficiente. Un essere umano lo avrebbe saputo ."
A differenza degli umani, i robot non hanno una coscienza morale e seguono l'"etica" in essi programmata. Allo stesso tempo, la moralità umana è molto variabile. La cosa "giusta" da fare in ogni situazione dipenderà da chi chiedi.
Affinché le macchine ci aiutino a sfruttare appieno il loro potenziale, dobbiamo assicurarci che si comportino in modo etico. Quindi la domanda diventa:in che modo l'etica degli sviluppatori e degli ingegneri dell'IA influenza le decisioni prese dall'IA?
Il futuro della guida autonoma
Immagina un futuro con auto a guida autonoma completamente autonome. Se tutto funziona come previsto, il pendolarismo mattutino sarà un'opportunità per prepararsi agli incontri della giornata, aggiornarsi sulle novità o sedersi e rilassarsi.
Ma cosa succede se le cose vanno male? L'auto si avvicina a un semaforo, ma all'improvviso i freni si guastano e il computer deve prendere una decisione in una frazione di secondo. Può sterzare contro un palo vicino e uccidere il passeggero, oppure andare avanti e uccidere il pedone davanti.
Il computer che controlla l'auto avrà accesso solo a informazioni limitate raccolte tramite i sensori dell'auto e dovrà prendere una decisione in base a questo. Per quanto drammatico possa sembrare, siamo solo a pochi anni di distanza dall'affrontare potenzialmente tali dilemmi.
Le auto autonome generalmente forniranno una guida più sicura, ma gli incidenti saranno inevitabili, specialmente nel prossimo futuro, quando queste auto condivideranno le strade con conducenti umani e altri utenti della strada.
Tesla non produce ancora auto completamente autonome, anche se prevede di farlo. In situazioni di collisione, le auto Tesla non azionano o disattivano automaticamente il sistema di frenata di emergenza automatica (AEB) se un guidatore umano ha il controllo.
In altre parole, le azioni del conducente non vengono interrotte, anche se sono esse stesse a causare la collisione. Invece, se l'auto rileva una potenziale collisione, invia avvisi al conducente per agire.
In modalità "pilota automatico", invece, l'auto dovrebbe frenare automaticamente per i pedoni. Alcuni sostengono che se l'auto può prevenire una collisione, allora c'è un obbligo morale per lei di ignorare le azioni del conducente in ogni scenario. Ma vorremmo che un'auto a guida autonoma prendesse questa decisione?
Quanto vale una vita?
E se il computer di un'auto potesse valutare il "valore" relativo del passeggero nella sua auto e del pedone? Se la sua decisione considerasse questo valore, tecnicamente si tratterebbe solo di un'analisi costi-benefici.
Questo può sembrare allarmante, ma ci sono già tecnologie in fase di sviluppo che potrebbero consentire che ciò avvenga. Ad esempio, Meta (ex Facebook) recentemente ribattezzata ha un riconoscimento facciale altamente evoluto che può facilmente identificare le persone in una scena.
Se questi dati fossero incorporati nel sistema di intelligenza artificiale di un veicolo autonomo, l'algoritmo potrebbe attribuire un valore in dollari a ciascuna vita. Questa possibilità è illustrata in un ampio studio del 2018 condotto da esperti del Massachusetts Institute of Technology e colleghi.
Attraverso l'esperimento Moral Machine, i ricercatori hanno proposto vari scenari di auto a guida autonoma che hanno costretto i partecipanti a decidere se uccidere un pedone senzatetto o un pedone dirigente.
I risultati hanno rivelato che le scelte dei partecipanti dipendevano dal livello di disuguaglianza economica nel loro paese, in cui una maggiore disuguaglianza economica significava che erano più propensi a sacrificare il senzatetto.
Sebbene non sia così evoluta, tale aggregazione di dati è già in uso con il sistema di credito sociale cinese, che decide quali diritti sociali hanno le persone.
Il settore sanitario è un'altra area in cui vedremo l'IA prendere decisioni che potrebbero salvare o danneggiare gli esseri umani. Gli esperti stanno sviluppando sempre più l'IA per individuare le anomalie nell'imaging medico e per aiutare i medici a dare priorità alle cure mediche.
Per ora, i medici hanno l'ultima parola, ma man mano che queste tecnologie diventano sempre più avanzate, cosa accadrà se un medico e un algoritmo di intelligenza artificiale non faranno la stessa diagnosi?
Un altro esempio è un sistema di promemoria farmaco automatizzato. Come dovrebbe reagire il sistema se un paziente si rifiuta di assumere i farmaci? E in che modo ciò influisce sull'autonomia del paziente e sulla responsabilità complessiva del sistema?
Anche i droni e le armi alimentati dall'intelligenza artificiale sono eticamente preoccupanti, poiché possono prendere la decisione di uccidere. Esistono opinioni contrastanti sul fatto che tali tecnologie debbano essere completamente bandite o regolamentate. Ad esempio, l'uso di droni autonomi può essere limitato alla sorveglianza.
Alcuni hanno chiesto che i robot militari siano programmati con l'etica. Ma questo solleva problemi sulla responsabilità del programmatore nel caso in cui un drone uccida civili per errore.
Dilemmi filosofici
Ci sono stati molti dibattiti filosofici riguardo alle decisioni etiche che l'IA dovrà prendere. L'esempio classico è il problema del carrello.
Le persone spesso lottano per prendere decisioni che potrebbero avere un risultato che cambia la vita. Quando si valuta come reagiamo a tali situazioni, uno studio ha riportato che le scelte possono variare in base a una serie di fattori, tra cui l'età, il sesso e la cultura del rispondente.
Quando si tratta di sistemi di intelligenza artificiale, i processi di addestramento degli algoritmi sono fondamentali per il modo in cui funzioneranno nel mondo reale. Un sistema sviluppato in un paese può essere influenzato dalle opinioni, dalla politica, dall'etica e dalla morale di quel paese, rendendolo inadatto all'uso in un altro luogo e tempo.
Se il sistema controllava un aereo o guidava un missile, vorresti un alto livello di sicurezza che sia stato addestrato con dati rappresentativi dell'ambiente in cui viene utilizzato.
Esempi di fallimenti e pregiudizi nell'implementazione della tecnologia hanno incluso distributori di sapone razzisti e etichettatura automatica delle immagini inappropriata.
Se hai mai avuto problemi a cogliere l'importanza della diversità nella tecnologia e il suo impatto sulla società, guarda questo video pic.twitter. com/ZJ1Je1C4NW
— Chukwuemeka Afigbo (@nke_ise) 16 agosto 2017
L'IA non è "buona" o "cattiva". Gli effetti che avrà sulle persone dipenderanno dall'etica dei suoi sviluppatori. Quindi, per trarne il massimo, dovremo raggiungere un consenso su ciò che consideriamo "etico".
Sebbene le aziende private, le organizzazioni pubbliche e gli istituti di ricerca abbiano le proprie linee guida per l'IA etica, le Nazioni Unite hanno raccomandato di sviluppare quello che chiamano "uno strumento globale di definizione degli standard globale" per fornire un quadro globale di IA etica e garantire la protezione dei diritti umani.