• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Google esclude l'uso dell'intelligenza artificiale per le armi (Aggiornamento)

    Sundar Pichai, amministratore delegato di Google, ha affermato che il gigante della tecnologia statunitense eviterà qualsiasi applicazione di intelligenza artificiale per le armi mentre svela una serie di principi per le tecnologie

    Google ha annunciato giovedì che non utilizzerà l'intelligenza artificiale per le armi o per "causare o facilitare direttamente lesioni alle persone, " poiché ha svelato una serie di principi per le tecnologie.

    L'amministratore delegato Sundar Pichai, in un post sul blog che illustra le politiche di intelligenza artificiale dell'azienda, ha notato che anche se Google non utilizzerà l'intelligenza artificiale per le armi, "continueremo il nostro lavoro con i governi e le forze armate in molti altri settori" come la sicurezza informatica, addestramento, o ricerca e soccorso.

    La notizia arriva con Google che affronta un tumulto da parte di dipendenti e altri per un contratto con l'esercito americano, che il colosso tecnologico californiano ha detto la scorsa settimana non sarebbe stato rinnovato.

    Pichai ha stabilito sette principi per l'applicazione dell'intelligenza artificiale da parte di Google, o informatica avanzata in grado di simulare il comportamento umano intelligente.

    Ha affermato che Google sta utilizzando l'intelligenza artificiale "per aiutare le persone ad affrontare problemi urgenti" come la previsione di incendi boschivi, aiutare gli agricoltori, diagnosticare malattie o prevenire la cecità.

    "Riconosciamo che una tecnologia così potente solleva domande altrettanto potenti sul suo utilizzo, " Pichai ha detto nel blog.

    "Il modo in cui l'IA viene sviluppata e utilizzata avrà un impatto significativo sulla società per molti anni a venire. In qualità di leader nell'IA, sentiamo una profonda responsabilità nel farlo bene".

    L'amministratore delegato ha affermato che i programmi di intelligenza artificiale di Google saranno progettati per applicazioni che sono "socialmente vantaggiose" e "evitano di creare o rafforzare pregiudizi ingiusti".

    Ha affermato che i principi richiedono anche che le applicazioni di intelligenza artificiale siano "costruite e testate per la sicurezza, " essere "responsabile nei confronti delle persone" e "incorporare principi di progettazione della privacy".

    Google eviterà l'uso di tecnologie "che causano o potrebbero causare danni complessivi, " ha scritto Pichai.

    Ciò significa evitare "armi o altre tecnologie il cui scopo principale o implementazione è causare o facilitare direttamente lesioni alle persone" e sistemi "che raccolgono o utilizzano informazioni per la sorveglianza che violano le norme accettate a livello internazionale".

    Google vieterà inoltre l'uso di qualsiasi tecnologia "il cui scopo contravviene ai principi ampiamente accettati del diritto internazionale e dei diritti umani, " disse Pichai.

    'Un buon inizio'

    Alcune prime reazioni all'annuncio sono state positive.

    La Fondazione Frontiera Elettronica, che aveva portato all'opposizione al contratto Project Maven di Google con il Pentagono, ha definito la notizia "una grande vittoria per i principi etici dell'IA".

    "Congratulazioni ai Googler e ad altri che hanno lavorato duramente per convincere l'azienda a cancellare il suo lavoro su Project Maven, " EFF ha detto su Twitter.

    Ryan Calò, un professore di diritto dell'Università di Washington e borsista presso lo Stanford Center for Internet &Society, twittato, "I principi etici dell'IA di Google devono più al (filosofo inglese Jeremy) Bentham e ai positivisti che al (filosofo tedesco) Kant. Tuttavia, un buon inizio."

    Calò ha aggiunto, "La chiara affermazione che non faciliteranno la violenza o la sorveglianza totalitaria è significativa".

    La mossa arriva tra le crescenti preoccupazioni che i sistemi automatizzati o robotici potrebbero essere utilizzati in modo improprio e andare fuori controllo, portando al caos. Allo stesso tempo, Google ha affrontato critiche per essersi allontanato dal motto dei suoi fondatori originali di "non essere malvagio".

    Diverse aziende tecnologiche hanno già concordato i principi generali dell'uso dell'intelligenza artificiale per sempre, ma Google sembrava offrire una serie di standard più precisi.

    L'azienda, che è già membro della Partnership on Artificial Intelligence che include dozzine di aziende tecnologiche impegnate nei principi dell'IA, aveva affrontato critiche per il contratto con il Pentagono su Project Maven, che utilizza l'apprendimento automatico e il talento ingegneristico per distinguere persone e oggetti nei video dei droni.

    Di fronte a una petizione firmata da migliaia di dipendenti e critiche all'esterno dell'azienda, Google ha indicato che il contratto da $ 10 milioni non sarebbe stato rinnovato, secondo i resoconti dei media.

    Ma si ritiene che Google sia in competizione con altri giganti della tecnologia come Amazon e Microsoft per lucrosi contratti di "cloud computing" con il governo degli Stati Uniti, anche per le agenzie militari e di intelligence.

    © 2018 AFP




    © Scienza https://it.scienceaq.com