Una delle domande urgenti che sorgono con l'intelligenza artificiale è come rendere conto delle azioni delle macchine che prendono decisioni da sole. Credito:ITU Immagini, con licenza CC BY 2.0
Tecnologie digitali come intelligenza artificiale e robotica, hanno "disperatamente" bisogno di un quadro istituzionale e di un sistema di valori per aiutare a regolare l'industria, ha detto un esperto di etica a eminenti scienziati e responsabili politici.
Jeroen van den Hoven, professore di etica e tecnologia presso la Delft University of Technology nei Paesi Bassi, stava parlando a una sessione sull'etica nella scienza e nella tecnologia all'EuroScience Open Forum (ESOF) 2018, che si tiene a Tolosa, Francia, dal 9 al 14 luglio.
"Le persone stanno diventando consapevoli che questa era digitale non è neutrale..., ci viene presentato principalmente da grandi aziende che vogliono realizzare qualche profitto, " Egli ha detto.
Ha chiesto una rete europea di istituzioni in grado di fornire un insieme di valori, sulla base della Carta dei diritti fondamentali dell'UE, all'interno del quale l'industria tecnologica potrebbe operare.
"Dobbiamo impostare, come abbiamo fatto per il cibo, per l'aviazione e per il traffico, … un elaborato sistema di istituzioni che esaminerà (a) questo campo dell'intelligenza artificiale.
"Dobbiamo pensare alla governance, ispezione, monitoraggio, test, certificazione, classificazione, standardizzazione, formazione scolastica, tutte queste cose. Non ci sono. Abbiamo bisogno disperatamente, e molto rapidamente, aiutiamoci in questo".
Il prof. van den Hoven è membro del Gruppo europeo sull'etica nelle scienze e nelle nuove tecnologie (EGE), un organo consultivo indipendente per la Commissione europea, che ha organizzato la sessione a cui stava parlando.
A marzo, l'EGE ha pubblicato una dichiarazione sull'intelligenza artificiale (AI), robotica e sistemi autonomi, che ha criticato l'attuale "patchwork di iniziative disparate" in Europa che cercano di affrontare il sociale, questioni legali ed etiche che l'IA ha generato. Nella dichiarazione, il GEE ha chiesto l'istituzione di un quadro strutturato.
La Commissione europea ha annunciato il 14 giugno di aver incaricato un gruppo di alto livello di 52 persone del mondo accademico, società e industria con il compito di sviluppare linee guida sulla politica dell'UE relativa all'IA, comprese le questioni etiche come l'equità, sicurezza, trasparenza e tutela dei diritti fondamentali.
Il gruppo di esperti, che include rappresentanti di leader del settore nell'intelligenza artificiale come Google, BMW e Santander, dovrebbero presentare le loro linee guida alla Commissione Europea all'inizio del 2019.
Pregiudizio
Anche le questioni etiche che circondano l'IA, come i pregiudizi negli algoritmi di apprendimento automatico e come supervisionare il processo decisionale delle macchine autonome, hanno attirato un'ampia discussione alla conferenza ESOF 2018.
Una delle principali preoccupazioni che emerge con il rapido sviluppo dell'apprendimento automatico, è la questione di come rendere conto delle azioni di una macchina. Questo è un problema particolare quando si utilizza l'intelligenza artificiale basata su reti neurali, un sistema complesso creato per imitare il cervello umano che gli consente di apprendere da grandi insiemi di dati. Ciò si traduce spesso in un algoritmo che diventa ciò che è noto come una "scatola nera", "dove è possibile vedere cosa entra e cosa esce, ma non come si è arrivati al risultato.
Maaike Harbers, un professore di ricerca presso l'Università di Scienze Applicate di Rotterdam nei Paesi Bassi, ha detto che questo era un problema importante nell'esercito, dove vengono utilizzati droni armati per eseguire azioni.
"In campo militare, un concetto molto importante è il controllo umano significativo, " ha detto. "Possiamo controllare o dirigere macchine autonome solo se capiamo cosa sta succedendo".
Il prof. Harbers ha aggiunto che una buona progettazione dell'interfaccia tra uomo e macchina può aiutare a garantire che gli esseri umani esercitino il controllo in tre fasi importanti:input di dati, elaborazione e ragionamento, e l'output o l'azione.
Anche nelle tecnologie che utilizzano l'intelligenza artificiale per scopi che sembrano essere straordinariamente positivi, come i robot sociali di accompagnamento per i bambini, sollevare alcune questioni etiche spinose. Il pubblico della conferenza ha sentito che i ricercatori che lavorano in questo settore sono alle prese con l'effetto che queste tecnologie possono avere sui rapporti familiari, Per esempio, o se potrebbero creare disuguaglianze nella società, o se potrebbero creare isolamento sociale.
Nel campo dei trasporti automatizzati, i ricercatori stanno anche esaminando l'impatto che le auto a guida autonoma potrebbero avere su questioni più ampie come la giustizia e l'uguaglianza. Stanno esaminando questioni che vanno da come garantire la parità di accesso a nuove forme di trasporto a chi dovrebbe beneficiare di eventuali risparmi sui costi associati al trasporto automatizzato.
Però, i valori che instilliamo nell'IA possono essere un fattore chiave per l'accettazione pubblica delle nuove tecnologie.
Uno dei dilemmi morali più noti che coinvolgono le auto a guida autonoma, Per esempio, è il cosiddetto problema del carrello. Ciò pone la questione se un veicolo autonomo diretto verso un incidente che coinvolga un gruppo di persone debba evitarlo deviando su una traiettoria che colpirebbe una sola persona.
Dr. Ebru Burcu Dogan dell'Istituto Vedecom in Francia, tale ricerca mostra che mentre le persone erano a favore di una soluzione utilitaristica al dilemma, ad esempio, uccidendo l'autista piuttosto che cinque pedoni:personalmente non vorrebbero comprare o guidare in un veicolo che è stato programmato in questo modo.
"Vogliamo tutti trarre vantaggio dall'implementazione di una tecnologia, ma non vogliamo necessariamente cambiare il nostro comportamento, o adottare un comportamento necessario per arrivarci."