Si dice che circa una dozzina di lavoratori di Google lascino l'azienda a causa della sua collaborazione con l'esercito americano sui droni
Una petizione interna che chiedeva a Google di rimanere fuori dal "business della guerra" stava ottenendo sostegno martedì, con alcuni lavoratori che si sarebbero dimessi per protestare contro una collaborazione con l'esercito americano.
Circa 4, Si dice che 000 dipendenti di Google abbiano firmato una petizione che ha iniziato a circolare circa tre mesi fa esortando il gigante di Internet ad astenersi dall'utilizzare l'intelligenza artificiale per migliorare i droni militari statunitensi nel riconoscere ciò che stanno monitorando.
Il sito web di notizie tecnologiche Gizmodo ha riferito questa settimana che circa una dozzina di dipendenti di Google si stanno dimettendo per una presa di posizione etica.
La società con sede in California non ha risposto immediatamente alle domande su quello che è stato definito Project Maven, che secondo quanto riferito utilizza l'apprendimento automatico e il talento ingegneristico per distinguere persone e oggetti nei video dei droni per il Dipartimento della Difesa.
"Crediamo che Google non dovrebbe occuparsi di guerra, "si legge nella petizione, secondo le copie pubblicate online.
"Perciò, chiediamo che Project Maven venga cancellato, e quella bozza di Google, pubblicizzare e applicare una politica chiara che affermi che né Google né i suoi appaltatori costruiranno mai tecnologia bellica".
"Allontanati" dai droni killer
La Fondazione Frontiera Elettronica, un gruppo per i diritti di Internet, e l'International Committee for Robot Arms Control (ICRAC) sono stati tra coloro che hanno espresso il proprio sostegno.
Sebbene i rapporti indicassero che i risultati dell'intelligenza artificiale sarebbero stati esaminati da analisti umani, la tecnologia potrebbe aprire la strada a sistemi di puntamento automatizzati su droni armati, L'ICRAC ha motivato in una lettera aperta di sostegno ai dipendenti di Google contro il progetto.
"Poiché i comandanti militari giungono a considerare affidabili gli algoritmi di riconoscimento degli oggetti, sarà tentato di attenuare o addirittura rimuovere la revisione e la supervisione umana per questi sistemi, Si legge nella lettera l'ICRAC.
"Siamo quindi a un passo dall'autorizzare i droni autonomi a uccidere automaticamente, senza supervisione umana o controllo umano significativo."
Google ha dichiarato che il suo lavoro per migliorare la capacità delle macchine di riconoscere gli oggetti non è per usi offensivi, ma i documenti pubblicati mostrano un'immagine più "torbida", Cindy Cohn e Peter Eckersley dell'EFF hanno detto in un post online il mese scorso.
"Se la nostra lettura del registro pubblico è corretta, i sistemi che Google sta supportando o costruendo contrassegnerebbero persone o oggetti visti dai droni per la revisione umana, e in alcuni casi ciò porterebbe a successivi attacchi missilistici su quelle persone o oggetti, " dissero Cohn ed Eckersley.
"Questa è una grossa posta in gioco etica, anche con gli umani nel circuito più avanti lungo la "catena di uccisioni"."
L'EFF e altri hanno accolto favorevolmente il dibattito interno di Google, sottolineando la necessità di quadri morali ed etici per quanto riguarda l'uso dell'intelligenza artificiale nelle armi.
"L'uso dell'intelligenza artificiale nei sistemi d'arma è un argomento di cruciale importanza e merita una discussione pubblica internazionale e probabilmente alcuni accordi internazionali per garantire la sicurezza globale, " Dissero Cohn ed Eckersley.
"Aziende come Google, così come le loro controparti in tutto il mondo, devono considerare le conseguenze e richiedere una reale responsabilità e standard di comportamento dalle agenzie militari che cercano la loro esperienza, e da se stesse".
© 2018 AFP