• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Amazzonia, Microsoft, mettendo il mondo a rischio di un'IA killer:rapporto

    I manifestanti a Berlino prendono parte a una campagna "Stop Killer Robots" organizzata dalla ONG tedesca "Facing Finance" per vietare quelli che chiamano robot killer, a marzo 2019

    Amazzonia, Microsoft e Intel sono tra le principali aziende tecnologiche che mettono a rischio il mondo attraverso lo sviluppo di robot killer, secondo un rapporto che ha intervistato i principali attori del settore sulla loro posizione sulle armi letali autonome.

    L'ONG olandese Pax ha classificato 50 aziende in base a tre criteri:se stavano sviluppando una tecnologia che potrebbe essere rilevante per l'IA mortale, se stavano lavorando a progetti militari correlati, e se si fossero impegnati ad astenersi dal contribuire in futuro.

    "Perché aziende come Microsoft e Amazon non negano che stanno attualmente sviluppando queste armi altamente controverse, che potrebbe decidere di uccidere le persone senza un diretto coinvolgimento umano?" ha detto Frank Slijper, autore principale del rapporto pubblicato questa settimana.

    L'uso dell'intelligenza artificiale per consentire ai sistemi d'arma di selezionare e attaccare autonomamente obiettivi ha suscitato dibattiti etici negli ultimi anni, con i critici che avvertono che metterebbero a repentaglio la sicurezza internazionale e preannunciavano una terza rivoluzione nella guerra dopo la polvere da sparo e la bomba atomica.

    Un gruppo di esperti governativi ha discusso mercoledì a Ginevra le opzioni politiche relative alle armi autonome letali durante una riunione della Convenzione delle Nazioni Unite su alcune armi convenzionali.

    Google, che l'anno scorso ha pubblicato principi guida che evitano l'uso dell'intelligenza artificiale nei sistemi d'arma, è stata tra le sette società che si sono impegnate in "best practice" nell'analisi che ha abbracciato 12 paesi, così come la giapponese Softbank, meglio conosciuto per il suo robot umanoide Pepper.

    Ventidue società erano di "media preoccupazione, " mentre 21 rientravano in una categoria di "alta preoccupazione", in particolare Amazon e Microsoft che stanno entrambe offrendo un contratto del Pentagono da $ 10 miliardi per fornire l'infrastruttura cloud per l'esercito americano.

    Altri nel gruppo "alta preoccupazione" includono Palantir, una società con radici in un'organizzazione di capitale di rischio sostenuta dalla CIA che si è aggiudicata un contratto da 800 milioni di dollari per sviluppare un sistema di intelligenza artificiale "che può aiutare i soldati ad analizzare una zona di combattimento in tempo reale".

    "Le armi autonome diventeranno inevitabilmente armi di distruzione di massa scalabili, perché se l'umano non è nel giro, allora una sola persona può lanciare un milione di armi o cento milioni di armi, "Stuart Russel, un professore di informatica all'Università della California, Berkeley ha detto mercoledì all'AFP.

    "Il fatto è che le armi autonome verranno sviluppate dalle corporazioni, e in termini di una campagna per impedire la diffusione delle armi autonome, possono svolgere un ruolo molto importante, " Ha aggiunto.

    Lo sviluppo dell'IA per scopi militari ha innescato dibattiti e proteste all'interno del settore:l'anno scorso Google ha rifiutato di rinnovare un contratto del Pentagono chiamato Project Maven, che ha utilizzato l'apprendimento automatico per distinguere persone e oggetti nei video dei droni.

    Ha anche abbandonato la corsa per la Joint Enterprise Defense Infrastructure (JEDI), il contratto cloud che Amazon e Microsoft sperano di ottenere.

    Il rapporto rilevava che i dipendenti di Microsoft avevano anche espresso la loro opposizione a un contratto dell'esercito americano per un visore per la realtà aumentata, HoloLens, che mira ad "aumentare la letalità" sul campo di battaglia.

    Come potrebbero essere

    Secondo Russel, "tutto ciò che è attualmente un'arma, le persone stanno lavorando su versioni autonome, che si tratti di carri armati, aereo da caccia, o sottomarini".

    L'Arpia israeliana è un drone autonomo che già esiste, "indugiare" in un'area bersaglio e selezionare i siti da colpire.

    Ancora più preoccupanti sono le nuove categorie di armi autonome che non esistono ancora:queste potrebbero includere mini-droni armati come quelli presenti nel cortometraggio del 2017 "Slaughterbots".

    "Con quel tipo di arma, potresti inviarne un milione in un container o in un aereo da carico, quindi hanno la capacità distruttiva di una bomba nucleare ma lasciano tutti gli edifici alle spalle, " ha detto Russel.

    Utilizzando la tecnologia di riconoscimento facciale, i droni potrebbero "spazzare via un gruppo etnico o un genere, o usando le informazioni dei social media potresti spazzare via tutte le persone con una visione politica".

    L'Unione Europea ad aprile ha pubblicato linee guida su come le aziende e i governi dovrebbero sviluppare l'IA, compresa la necessità di una supervisione umana, lavorare per il benessere sociale e ambientale in modo non discriminatorio, e nel rispetto della privacy.

    Russell ha sostenuto che era essenziale fare il passo successivo sotto forma di un divieto internazionale sull'IA letale, che si potrebbe riassumere come "non si svilupperanno macchine che decidano di uccidere esseri umani, schierato, o usato."

    © 2019 AFP




    © Scienza https://it.scienceaq.com