• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Il Pentagono adotta nuovi principi etici per l'utilizzo dell'IA in guerra

    In questo 20 dicembre, 2019, file photo Il segretario alla Difesa Mark Esper parla durante una conferenza stampa al Pentagono a Washington. Il Pentagono sta adottando nuovi principi etici mentre si prepara ad accelerare l'uso della tecnologia dell'intelligenza artificiale sul campo di battaglia. (Foto AP/Susan Walsh, File)

    Il Pentagono sta adottando nuovi principi etici mentre si prepara ad accelerare l'uso della tecnologia dell'intelligenza artificiale sul campo di battaglia.

    I nuovi principi invitano le persone a "esercitare adeguati livelli di giudizio e cura" durante l'implementazione e l'utilizzo di sistemi di intelligenza artificiale, come quelli che scansionano immagini aeree per cercare bersagli.

    Dicono anche che le decisioni prese dai sistemi automatizzati dovrebbero essere "tracciabili" e "governabili, " che significa "deve esserci un modo per disimpegnarli o disattivarli" se stanno dimostrando un comportamento non intenzionale, ha detto il tenente generale dell'aeronautica Jack Shanahan, direttore del Centro congiunto di intelligenza artificiale del Pentagono.

    La spinta del Pentagono ad accelerare le sue capacità di intelligenza artificiale ha alimentato una lotta tra le aziende tecnologiche per un contratto di cloud computing da $ 10 miliardi noto come Joint Enterprise Defense Infrastructure, o JEDI. Microsoft ha vinto il contratto a ottobre ma non è stata in grado di avviare il progetto decennale perché Amazon ha fatto causa al Pentagono, sostenendo che l'antipatia del presidente Donald Trump nei confronti di Amazon e del suo CEO Jeff Bezos ha danneggiato le possibilità dell'azienda di vincere l'offerta.

    Una direttiva militare esistente del 2012 richiede che gli esseri umani abbiano il controllo delle armi automatizzate, ma non affronta usi più ampi dell'IA. I nuovi principi degli Stati Uniti hanno lo scopo di guidare sia le applicazioni di combattimento che quelle non di combattimento, dalla raccolta di informazioni e dalle operazioni di sorveglianza alla previsione di problemi di manutenzione su aerei o navi.

    L'approccio delineato lunedì segue le raccomandazioni formulate lo scorso anno dal Defense Innovation Board, un gruppo guidato dall'ex CEO di Google Eric Schmidt.

    Mentre il Pentagono ha riconosciuto che l'IA "solleva nuove ambiguità etiche e rischi, "I nuovi principi non sono all'altezza delle restrizioni più forti favorite dai sostenitori del controllo degli armamenti.

    "Temo che i principi siano un po' un progetto di lavaggio etico, " ha detto Lucy Suchman, un antropologo che studia il ruolo dell'IA nella guerra. "La parola 'appropriato' è aperta a molte interpretazioni".

    Shanahan ha affermato che i principi sono intenzionalmente ampi per evitare di ammanettare le forze armate statunitensi con restrizioni specifiche che potrebbero diventare obsolete.

    "La tecnologia si adatta. La tecnologia si evolve, " Egli ha detto.

    Il Pentagono ha incontrato un ostacolo nei suoi sforzi di intelligenza artificiale nel 2018 dopo che le proteste interne a Google hanno portato l'azienda tecnologica a ritirarsi dal Project Maven dell'esercito, che utilizza algoritmi per interpretare le immagini aeree da zone di conflitto. Da allora altre aziende hanno riempito il vuoto. Shanahan ha affermato che i nuovi principi stanno aiutando a riconquistare il sostegno dell'industria tecnologica, dove "c'era sete di avere questa discussione".

    "A volte penso che l'angoscia sia un po' esaltata, ma abbiamo persone che hanno serie preoccupazioni riguardo al lavoro con il Dipartimento della Difesa, " Egli ha detto.

    Shanahan ha affermato che la guida aiuta anche a garantire il vantaggio tecnologico americano poiché Cina e Russia perseguono l'intelligenza artificiale militare con poca attenzione alle preoccupazioni etiche.

    La professoressa di legge dell'Università di Richmond Rebecca Crootof ha affermato che l'adozione di principi è un buon primo passo, ma i militari dovranno dimostrare di poter valutare in modo critico le enormi raccolte di dati utilizzate dai sistemi di intelligenza artificiale, così come i loro rischi per la sicurezza informatica.

    Crootof ha detto che spera anche che l'azione degli Stati Uniti aiuti a stabilire norme internazionali sull'uso militare dell'IA.

    "Se si vede che gli Stati Uniti prendono sul serio le norme etiche dell'IA, per impostazione predefinita diventano un argomento più serio, " lei disse.

    © 2020 The Associated Press. Tutti i diritti riservati. Questo materiale non può essere pubblicato, trasmissione, riscritto o ridistribuito senza permesso.




    © Scienza https://it.scienceaq.com