Ognuno ha la propria idea sull'uso etico dell'IA, ma possiamo ottenere un consenso globale? Credito:Shutterstock/EtiAmmos
L'Australia è tra i 42 paesi che la scorsa settimana hanno firmato una nuova serie di linee guida politiche per lo sviluppo di sistemi di intelligenza artificiale (AI).
Eppure l'Australia ha la sua bozza di linee guida per l'etica nell'IA in consultazione pubblica, e un certo numero di altri paesi e organismi del settore hanno sviluppato le proprie linee guida per l'IA.
Allora perché abbiamo bisogno di così tante linee guida, e qualcuno di essi è esecutivo?
I nuovi principi
L'ultima serie di linee guida politiche è la Raccomandazione sull'intelligenza artificiale dell'Organizzazione per la cooperazione e lo sviluppo economico (OCSE).
Promuove cinque principi per lo sviluppo responsabile di un'IA affidabile. Include anche cinque strategie complementari per lo sviluppo della politica nazionale e della cooperazione internazionale.
Dato che questo viene dall'OCSE, traccia il confine tra la promozione del miglioramento economico e dell'innovazione e la promozione dei valori fondamentali e della fiducia nello sviluppo dell'IA.
I cinque principi dell'IA incoraggiano:
Queste raccomandazioni sono ampie e non hanno forza di legge o addirittura di regole. Cercano invece di incoraggiare i paesi membri a incorporare questi valori o etica nello sviluppo dell'IA.
Ma cosa intendiamo per AI?
È difficile formulare raccomandazioni specifiche in relazione all'IA. Ciò è in parte dovuto al fatto che l'intelligenza artificiale non è una cosa con una singola applicazione che pone rischi o minacce singolari.
Anziché, L'intelligenza artificiale è diventata un termine generico per riferirsi a un vasto numero di sistemi diversi. Ciascuno è tipicamente progettato per raccogliere ed elaborare dati utilizzando la tecnologia informatica, adattarsi al cambiamento, e agire razionalmente per raggiungere i suoi obiettivi, alla fine senza l'intervento umano.
Tali obiettivi potrebbero essere diversi come tradurre la lingua, identificare volti, o anche giocando a scacchi.
Il tipo di intelligenza artificiale che è eccezionalmente bravo a completare questi obiettivi viene spesso definito IA ristretta. Un buon esempio è un'IA che gioca a scacchi. Questo è specificamente progettato per giocare a scacchi ed è estremamente bravo in questo, ma completamente inutile in altre attività.
D'altra parte è l'IA generale. Questa è l'intelligenza artificiale che si dice sostituirà l'intelligenza umana nella maggior parte se non in tutti i compiti. Questo è ancora molto lontano, ma rimane l'obiettivo finale di alcuni sviluppatori di intelligenza artificiale.
Eppure è questa idea di IA generale che guida molte delle paure e dei malintesi che circondano l'IA.
Tante tante linee guida
Rispondendo a queste paure e a una serie di problemi molto reali con l'IA ristretta, le raccomandazioni dell'OCSE sono l'ultimo di una serie di progetti e linee guida di governi e altri organismi in tutto il mondo che cercano di instillare un approccio etico allo sviluppo dell'IA.
Questi includono iniziative dell'Istituto degli ingegneri elettrici ed elettronici, l'autorità francese per la protezione dei dati, l'Ufficio del Commissario per la privacy di Hong Kong e la Commissione europea.
Il governo australiano ha finanziato Data61 del CSIRO per sviluppare un quadro etico per l'IA, che è ora aperto al pubblico feedback, e l'Australian Council of Learned Academies deve ancora pubblicare il suo rapporto sul futuro dell'IA in Australia.
La Commissione australiana per i diritti umani, insieme al World Economic Forum, sta anche esaminando e relazionando sull'impatto dell'IA sui diritti umani.
Lo scopo di queste iniziative è incoraggiare o stimolare lo sviluppo etico dell'IA. Ma questo presuppone un comportamento non etico. Qual è il danno nell'intelligenza artificiale?
IA non etica
Uno studio ha identificato tre ampi potenziali usi dannosi dell'IA. Questi obiettivi:
Un'area di preoccupazione si sta evolvendo in Cina, dove diverse regioni stanno sviluppando un sistema di credito sociale legato alla sorveglianza di massa utilizzando tecnologie AI.
Il sistema può identificare una persona che viola le norme sociali (come il jaywalking, associazione con criminali, o uso improprio dei social media) e addebitare punti di credito sociale all'individuo.
Quando un punteggio di credito viene ridotto, le libertà di quella persona (come la libertà di viaggiare o prendere in prestito denaro) sono limitate. Anche se questo non è ancora un sistema nazionale, i rapporti indicano che questo potrebbe essere l'obiettivo finale.
A questi abusi deliberati dell'IA si aggiungono diversi effetti collaterali non intenzionali di un'IA ristretta mal costruita o implementata. Questi includono pregiudizi e discriminazioni e l'erosione della fiducia.
Costruire consenso sull'IA
Le società differiscono su ciò che è etico. Anche le persone all'interno delle società differiscono su ciò che considerano un comportamento etico. Quindi, come può mai esserci un consenso globale sullo sviluppo etico dell'IA?
Data la portata molto ampia dello sviluppo dell'IA, qualsiasi politica in relazione all'IA etica non può essere ancora più specifica fino a quando non saremo in grado di identificare norme condivise di comportamento etico che potrebbero costituire la base di alcune regole globali concordate.
Sviluppando ed esprimendo i valori, diritti e norme che consideriamo importanti ora nella forma delle relazioni e delle linee guida sopra delineate, stiamo lavorando per costruire la fiducia tra le nazioni.
Temi comuni emergono nelle diverse linee guida, come la necessità di un'IA che tenga conto dei diritti umani, sicurezza, sicurezza, trasparenza, affidabilità e responsabilità, quindi potremmo essere ancora sulla buona strada per un consenso globale.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.