In questo 5 gennaio, 2019, file foto persone in piedi davanti alla tenda di Google durante i preparativi per il CES International di Las Vegas. I dipendenti di Google hanno avuto più successo di altri dipendenti del settore tecnologico nel chiedere un cambiamento all'azienda. Google ha rinunciato a un contratto con il Pentagono dopo che i dipendenti hanno respinto le implicazioni etiche dell'utilizzo della tecnologia aziendale per analizzare i video dei droni. (Foto AP/John Locher, File)
Le più grandi aziende tecnologiche vogliono che tu sappia che stanno prestando particolare attenzione per garantire che il loro uso dell'intelligenza artificiale per vagliare montagne di dati, analizzare i volti o creare assistenti virtuali non sfocia nel lato oscuro.
Ma i loro sforzi per placare le preoccupazioni che le loro macchine possano essere utilizzate per scopi nefasti non sono stati universalmente accettati. Alcuni scettici lo vedono come una semplice vetrina da parte di aziende più interessate al profitto che a ciò che è nell'interesse della società.
"IA etica" è diventata una nuova frase di moda aziendale, schiaffeggiato su comitati interni di revisione, titoli di lavoro fantasiosi, progetti di ricerca e iniziative filantropiche. Le mosse hanno lo scopo di affrontare le preoccupazioni sui pregiudizi razziali e di genere che emergono nel riconoscimento facciale e in altri sistemi di intelligenza artificiale, così come affrontare le ansie relative alla perdita di posti di lavoro per la tecnologia e il suo utilizzo da parte delle forze dell'ordine e dell'esercito.
Ma quanta sostanza c'è dietro le campagne etiche sempre più pubbliche? E chi decide quali ricerche tecnologiche non fanno male?
Google è stato colpito da entrambe le domande quando ha formato un nuovo consiglio di consulenti esterni alla fine di marzo per aiutare a guidare il modo in cui utilizza l'intelligenza artificiale nei prodotti. Ma invece di conquistare potenziali critici, ha suscitato rancore interno. Poco più di una settimana dopo, Google ha ceduto alle pressioni del contraccolpo e ha sciolto il consiglio.
Il tabellone esterno è crollato in più fasi. Uno degli otto membri inaugurali del consiglio si è dimesso in pochi giorni e un altro è diventato rapidamente l'obiettivo delle proteste dei dipendenti di Google che hanno affermato che le sue opinioni conservatrici non sono in linea con i valori dichiarati dell'azienda.
Mentre migliaia di dipendenti chiedevano la rimozione del presidente della Heritage Foundation Kay Coles James, Google ha sciolto il consiglio la scorsa settimana.
"È diventato chiaro che nell'ambiente attuale, (il consiglio) non può funzionare come volevamo, ", ha dichiarato la società in una nota.
Quell'ambiente è caratterizzato da una crescente preoccupazione per il fatto che le campagne di etica dell'IA aziendale manchino di denti.
"Penso che (la decisione di Google) rifletta una più ampia comprensione pubblica secondo cui l'etica implica qualcosa di più della semplice creazione di un comitato etico senza un quadro istituzionale per fornire responsabilità, "Il ricercatore di intelligenza artificiale Ben Wagner ha detto.
L'iniziativa originale di Google è caduta in una tendenza del settore tecnologico che Wagner chiama "lavaggio dell'etica, " che descrive come uno sforzo superficiale che è principalmente uno spettacolo per il pubblico o per i legislatori.
"È fondamentalmente un tentativo di fingere di fare cose etiche e di usare l'etica come uno strumento per raggiungere un fine, come evitare la regolamentazione, " disse Wagner, professore assistente presso l'Università di Economia e Commercio di Vienna. "È una nuova forma di autoregolamentazione senza chiamarla così per nome".
Negli ultimi anni le grandi aziende hanno compiuto uno sforzo sempre più visibile per discutere i loro sforzi sull'intelligenza artificiale.
Microsoft, che spesso cerca di posizionarsi come leader del settore in materia di etica e privacy, ha pubblicato i suoi principi sullo sviluppo dell'IA, ha pubblicato un breve libro che ha discusso le implicazioni sociali della tecnologia e ha richiesto una regolamentazione governativa delle tecnologie di intelligenza artificiale.
Il presidente della società ha persino incontrato Papa Francesco all'inizio di quest'anno per discutere di etica del settore. Amazon ha recentemente annunciato che sta aiutando a finanziare la ricerca federale sull'"equità algoritmica, " e Salesforce impiega un "architetto" per la pratica etica dell'IA, così come un ufficiale "capo uso etico e umano". È difficile trovare un'azienda tecnologica di marca senza iniziative simili.
In questo 21 maggio, 2018, file foto Segretario di Stato Mike Pompeo, sinistra, insieme al presidente della Heritage Foundation Kay Coles James, parla alla Heritage Foundation, un think tank conservatore di politica pubblica, a Washington. I dipendenti di Google hanno avuto più successo di altri dipendenti del settore tecnologico nel chiedere un cambiamento all'azienda. Google ha rinunciato a un contratto con il Pentagono dopo che i dipendenti hanno respinto le implicazioni etiche dell'utilizzo della tecnologia aziendale per analizzare i video dei droni. E dopo più di 2, 400 dipendenti di Google hanno firmato una petizione chiedendo la rimozione di James dal consiglio di amministrazione, Google ha eliminato del tutto il consiglio di amministrazione. (AP Photo/J. Scott Applewhite, File)
È una buona cosa che le aziende stiano studiando il problema e cercando prospettive sull'etica del settore, disse Oren Etzioni, CEO dell'Allen Institute for Artificial Intelligence, un ente di ricerca. Ma alla fine, Egli ha detto, il CEO di un'azienda ha il compito di decidere quali suggerimenti sull'etica dell'IA incorporare nelle decisioni aziendali.
"Penso che nel complesso sia un passo positivo piuttosto che una foglia di fico, " disse. " Detto questo, la prova è in attuazione con successo. Penso che la giuria sia ancora fuori discussione".
L'impatto che l'intelligenza artificiale può avere sulla società non è mai stato più chiaro, Ezioni ha detto, e le aziende stanno reagendo agli studi sul potere degli algoritmi di raccomandazione e sui pregiudizi di genere nell'IA.
Ma come mostra il tentativo di Google, discutere le questioni sotto gli occhi del pubblico invita anche al controllo pubblico.
I dipendenti di Google hanno avuto più successo di altri lavoratori del settore tecnologico nel richiedere un cambiamento nella loro azienda. Il colosso della ricerca su Internet ha rinunciato a un contratto con il Pentagono dopo che i dipendenti hanno respinto le implicazioni etiche dell'utilizzo della tecnologia AI dell'azienda per analizzare i video dei droni.
E dopo più di 2, 400 dipendenti di Google hanno firmato una petizione chiedendo la rimozione di James dal consiglio di amministrazione, Google ha eliminato del tutto il consiglio di amministrazione. I dipendenti hanno affermato che James ha fatto commenti in passato che erano anti-trans e anti-immigrati e non dovrebbero essere in un panel di etica. La Heritage Foundation non ha risposto a una richiesta di commento.
Google aveva anche affrontato il dissenso da parte dei membri del consiglio prescelti. Alessandro Acquisti, professore alla Carnegie Mellon University, annunciando su Twitter di aver declinato l'invito. Ha scritto di essere dedito alla lotta contro l'equità e l'inclusione nell'intelligenza artificiale, ma questo non era "il forum giusto per me per impegnarmi in questo importante lavoro". Ha rifiutato di commentare ulteriormente.
Un'esperta che si era impegnata a rimanere nel consiglio è Joanna Bryson, professore associato di informatica presso l'Università di Bath. Un liberale autodefinitosi, ha detto prima dello scioglimento che ha senso avere la diversità politica nel pannello, e non era d'accordo con chi pensa che sia solo per spettacolo.
"Semplicemente non penso che Google sia così stupido, "Bryson ha detto. "Non credo che siano lì solo per avere un poster su un muro."
Lei disse, però, che aziende come Google e Microsoft hanno una reale preoccupazione per la responsabilità, nel senso che vogliono assicurarsi di mostrarsi, e il pubblico, che hanno fatto del loro meglio per costruire i prodotti nel modo giusto prima di rilasciarli.
"Non è solo la cosa giusta da fare, è la cosa che devono fare, " ha detto. Bryson ha detto che sperava che Google volesse davvero fare un brainstorming su problemi difficili e dovrebbe trovare un altro modo per farlo dopo lo scioglimento del consiglio.
Non è chiaro cosa farà Google dopo. La società ha affermato che "torna al tavolo da disegno" e che troverà altri modi per ottenere opinioni esterne.
Wagner ha detto che ora sarebbe il momento per Google di stabilire principi etici che includano impegni a cui devono attenersi, supervisione esterna e altri posti di blocco per ritenerli responsabili.
Anche se le aziende continuano a istituire commissioni esterne per supervisionare la responsabilità dell'IA, sarà ancora necessaria la regolamentazione del governo, disse Liz O'Sullivan, un tecnico che ha lasciato la società di intelligenza artificiale Clarifai per il lavoro dell'azienda nel Project Maven del Pentagono, lo stesso progetto che Google ha abbandonato dopo che i suoi dipendenti hanno protestato.
O'Sullivan diffida dei consigli di amministrazione che possono dare suggerimenti a cui le aziende non hanno alcun obbligo legale di attenersi.
"Ogni azienda di quelle dimensioni che afferma di essere interessata ad avere una sorta di supervisione che non ha la capacità o l'autorità di limitare o frenare il comportamento aziendale sembra che lo stiano facendo per la stampa di tutto questo, " lei disse.
© 2019 The Associated Press. Tutti i diritti riservati.