Credito:CC0 Dominio Pubblico
Dalle telecomunicazioni al traffico stradale, dall'assistenza sanitaria al posto di lavoro, la tecnologia digitale è ormai una parte intrinseca di quasi ogni area della vita. Tuttavia, come possiamo garantire che gli sviluppi in questo campo, soprattutto quelli che si basano sull'intelligenza artificiale (AI), soddisfare tutti i nostri etici, problemi legali e tecnologici? In un progetto guidato dal Fraunhofer Institute for Intelligent Analysis and Information Systems IAIS, e con la partecipazione dell'Ufficio federale tedesco per la sicurezza delle informazioni (BSI), un team interdisciplinare di scienziati delle Università di Bonn e Colonia sta elaborando un catalogo di ispezione per la certificazione delle applicazioni di IA. Hanno ora pubblicato un white paper che presenta il filosofico, etico, questioni legali e tecnologiche coinvolte.
L'intelligenza artificiale sta cambiando la nostra società, la nostra economia e la nostra vita quotidiana in modi fondamentali. E così facendo, sta creando alcune opportunità entusiasmanti nel modo in cui viviamo e lavoriamo insieme. Per esempio, aiuta già i medici a valutare meglio i raggi X, che spesso porta a una diagnosi più accurata. È la base dei chatbot che forniscono risposte utili alle persone in cerca di consigli su, Per esempio, assicurazione. E, tra non molto, consentirà alle auto di diventare sempre più autonome. Le previsioni attuali indicano che il numero di applicazioni di intelligenza artificiale è destinato ad aumentare in modo esponenziale nei prossimi anni. McKinsey, Per esempio, prevede un'ulteriore crescita globale dall'IA fino a 13 miliardi di dollari USA entro il 2030.
Allo stesso tempo, è chiaro che dobbiamo garantire che il nostro uso dell'IA e le opportunità che offre rimangano in armonia con le opinioni e i valori della nostra società. Agendo sotto l'egida di Kompetenzplattform KI.NRW, una piattaforma di competenze AI nello stato della Renania settentrionale-Vestfalia, un team interdisciplinare si è riunito per sviluppare un processo di certificazione per le applicazioni di intelligenza artificiale che devono essere svolte da esaminatori accreditati. Ciò confermerà il rispetto di uno standard di qualità certificato che, a sua volta, consentirà alle aziende tecnologiche di progettare in modo verificabile applicazioni di intelligenza artificiale che siano tecnicamente affidabili ed eticamente accettabili.
"Lo scopo della certificazione è aiutare a stabilire standard di qualità per l'IA prodotta in Europa, garantire un approccio responsabile a questa tecnologia e promuovere una concorrenza leale tra i vari attori, " afferma il Prof. Dr. Stefan Wrobel, direttore del Fraunhofer IAIS e professore di informatica all'Università di Bonn.
Concentrandosi sull'aspetto umano
L'intelligenza artificiale ha il potenziale per ampliare le nostre capacità e fornirci nuove conoscenze. Però, una volta che iniziamo a basare le nostre decisioni sull'apprendimento automatico, completamente o parzialmente automatizzato, affronteremo una serie di nuove sfide. La fattibilità tecnica di tali applicazioni è una considerazione. Innanzitutto, però, dobbiamo risolvere la filosofia di base, questioni etiche e legali. Per garantire che le esigenze delle persone siano saldamente radicate al centro dello sviluppo di questa tecnologia, stretto dialogo tra i settori dell'informatica, filosofia e diritto sono necessarie.
Il team di esperti ha ora pubblicato un white paper in cui illustrano in dettaglio il loro approccio interdisciplinare al processo di certificazione. Per esempio, spiegano i principi etici coinvolti. "Chiunque utilizzi l'intelligenza artificiale dovrebbe essere in grado di agire correttamente in conformità con le proprie convinzioni morali, e nessuno dovrebbe essere ridotto nei propri diritti, libertà o autonomia, " afferma il Prof. Dr. Markus Gabriel, professore di filosofia all'Università di Bonn. Sono state affrontate anche questioni legali. "Per esempio, dobbiamo determinare come le applicazioni dell'IA possono essere fatte per conformarsi ai valori e ai principi di base di uno stato governato dallo stato di diritto e soggetto ai principi di libertà, " spiega il prof. Frauke Rostalski, professore di diritto all'Università di Colonia.
Priorità per creare fiducia nell'uso dell'IA
Questo approccio interdisciplinare ha identificato una serie di criteri etici, questioni legali e tecnologiche rilevanti per l'uso dell'IA. Questi sono tutti esaminati nel white paper. I criteri impiegati in un processo di certificazione dovrebbero includere equità, trasparenza, autonomia, controllo, protezione dati, sicurezza, sicurezza e affidabilità. Le raccomandazioni dell'UE fungono quindi anche da orientamento per il progetto di certificazione KI.NRW.
Il processo di certificazione ruoterà attorno a domande quali:l'applicazione AI rispetta le leggi e i valori della società? L'utente mantiene piena ed effettiva autonomia sull'applicazione? L'applicazione tratta tutti i partecipanti in modo equo? L'applicazione funziona e prende decisioni in modo trasparente e comprensibile? L'applicazione è affidabile e robusta? È sicuro contro gli attacchi, incidenti ed errori? L'applicazione protegge l'ambito privato e altre informazioni sensibili?
Costruire verifiche e controlli in fase di progettazione
Secondo il libro bianco, deve essere determinato durante il processo di progettazione iniziale se la domanda è eticamente e legalmente ammissibile e, in caso affermativo, quali verifiche e controlli devono essere formulati per governare tale processo. Un criterio necessario è garantire che l'uso dell'applicazione non comprometta la capacità di chi la utilizza di prendere una decisione morale, come se esistesse la possibilità di rifiutare l'uso dell'IA, e che i suoi diritti e le sue libertà non siano in alcun modo limitati .
La trasparenza è un altro criterio importante:gli esperti sottolineano che le informazioni sul corretto utilizzo dell'applicazione dovrebbero essere prontamente disponibili, e i risultati determinati attraverso l'uso dell'IA nell'applicazione devono essere pienamente interpretabili, tracciabile e riproducibile dall'utente. Interessi contrastanti, quali la trasparenza e la non divulgazione di segreti commerciali, devono essere bilanciati gli uni contro gli altri.
Il piano è quello di pubblicare una prima versione del catalogo delle ispezioni entro l'inizio del 2020 e poi iniziare con la certificazione delle applicazioni AI. Questo progetto prevede anche la partecipazione dell'Ufficio federale tedesco per la sicurezza delle informazioni (BSI), che ha una vasta esperienza nello sviluppo di standard IT sicuri. Questo know-how confluirà nel processo di certificazione. Finalmente, dato che l'IA è in continua evoluzione, lo stesso catalogo delle ispezioni sarà un "documento vivo" che necessita di un continuo aggiornamento.