• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Bandire i robot killer per proteggere i principi morali e legali fondamentali

    L'esercito americano sta già testando un sistema robotico avanzato modulare. Credito:Lance Cpl. Julien Rodarte, Corpo dei Marines degli Stati Uniti

    Durante la stesura di un trattato sulle leggi di guerra alla fine del XIX secolo, i diplomatici non potevano prevedere il futuro dello sviluppo delle armi. Ma hanno adottato uno standard legale e morale per giudicare la nuova tecnologia non coperta dal linguaggio del trattato esistente.

    Questa norma, nota come clausola di Martens, è sopravvissuta a generazioni di diritto umanitario internazionale e ha acquisito una rinnovata rilevanza in un mondo in cui le armi autonome sono sul punto di decidere da sole chi sparare e quando. La clausola Martens invita i Paesi a non utilizzare armi che si discostano "dai principi di umanità e dai dettami della coscienza pubblica".

    Sono stato l'autore principale di un nuovo rapporto di Human Rights Watch e della Harvard Law School International Human Rights Clinic che spiega perché le armi completamente autonome sarebbero contrarie ai principi dell'umanità e ai dettami della coscienza pubblica. Abbiamo scoperto che per rispettare la clausola Martens, i paesi dovrebbero adottare un trattato che vieti lo sviluppo, produzione e uso di queste armi.

    Rappresentanti di oltre 70 nazioni si riuniranno dal 27 al 31 agosto alle Nazioni Unite a Ginevra per discutere su come affrontare i problemi con quelli che chiamano sistemi d'arma autonomi letali. Questi paesi, che sono parti della Convenzione sulle armi convenzionali, hanno discusso la questione per cinque anni. I miei coautori e io crediamo che sia giunto il momento che agiscano e accettino di iniziare a negoziare un divieto il prossimo anno.

    Fare regole per l'inconoscibile

    La clausola Martens fornisce una base di protezione per civili e soldati in assenza di una legge specifica del trattato. La clausola stabilisce anche uno standard per valutare nuove situazioni e tecnologie che non erano previste in precedenza.

    Armi completamente autonome, a volte chiamati "robot killer, " selezionerebbe e ingaggerebbe bersagli senza un controllo umano significativo. Sarebbe un passo pericoloso oltre gli attuali droni armati perché non ci sarebbe nessun essere umano nel circuito per determinare quando sparare e su quale bersaglio. Sebbene non esistano ancora armi completamente autonome, Cina, Israele, Russia, Corea del Sud, il Regno Unito e gli Stati Uniti stanno tutti lavorando per svilupparli. Sostengono che la tecnologia elaborerebbe le informazioni più velocemente e manterrebbe i soldati fuori dal campo di battaglia.

    La possibilità che armi completamente autonome possano presto diventare una realtà rende imperativo per questi e altri paesi applicare la clausola Martens e valutare se la tecnologia offenderebbe l'umanità di base e la coscienza pubblica. La nostra analisi rileva che le armi completamente autonome fallirebbero il test su entrambi i fronti.

    Principi di umanità

    La storia della clausola Martens mostra che si tratta di un principio fondamentale del diritto internazionale umanitario. Nato dalla Convenzione dell'Aia del 1899, versioni di esso compaiono in tutte e quattro le Convenzioni di Ginevra e nel Protocollo aggiuntivo I. È citato in numerosi trattati di disarmo. Nel 1995, le preoccupazioni sotto la clausola Martens hanno motivato i paesi ad adottare un divieto preventivo dei laser accecanti.

    I principi dell'umanità richiedono un trattamento umano degli altri e il rispetto per la vita e la dignità umana. Le armi completamente autonome non potrebbero soddisfare questi requisiti perché non sarebbero in grado di provare compassione, un'emozione che ispira le persone a ridurre al minimo la sofferenza e la morte. Le armi mancherebbero anche del giudizio legale ed etico necessario per garantire che proteggano i civili in situazioni di conflitto complesse e imprevedibili.

    Sotto la supervisione umana, per ora. Credito:Pfc. Rita Daniel, Corpo dei Marines degli Stati Uniti

    Inoltre, come macchine inanimate, queste armi non potevano comprendere veramente il valore di una vita individuale o il significato della sua perdita. I loro algoritmi tradurrebbero vite umane in valori numerici. Prendendo decisioni letali basate su tali algoritmi, ridurrebbero i loro obiettivi umani, siano essi civili o soldati, a oggetti, minare la loro dignità umana.

    I dettami della coscienza pubblica

    La crescente opposizione alle armi completamente autonome mostra che esse sono anche in conflitto con i dettami della coscienza pubblica. governi, esperti e il pubblico in generale si sono tutti opposti, spesso per motivi morali, alla possibilità di perdere il controllo umano sull'uso della forza.

    Ad oggi, 26 paesi hanno espressamente sostenuto un divieto, compresa la Cina. La maggior parte dei paesi che hanno parlato alle riunioni delle Nazioni Unite sulle armi convenzionali ha chiesto di mantenere una qualche forma di controllo umano significativo sull'uso della forza. Richiedere tale controllo equivale effettivamente a vietare le armi che funzionano senza una persona che decida quando uccidere.

    Migliaia di scienziati ed esperti di intelligenza artificiale hanno approvato un divieto e chiesto un'azione da parte delle Nazioni Unite. A luglio 2018, si sono impegnati a non assistere allo sviluppo o all'uso di armi completamente autonome. Anche le grandi aziende hanno chiesto il divieto.

    Più di 160 leader religiosi e più di 20 vincitori del Premio Nobel per la pace hanno condannato in modo simile la tecnologia e sostenuto un divieto. Diversi sondaggi di opinione pubblica internazionali e nazionali hanno rilevato che la maggioranza delle persone che hanno risposto si è opposta allo sviluppo e all'utilizzo di armi completamente autonome.

    La campagna per fermare i robot killer, una coalizione di 75 organizzazioni non governative di 42 paesi, has led opposition by nongovernmental groups. Human Rights Watch, for which I work, co-founded and coordinates the campaign.

    Other problems with killer robots

    Fully autonomous weapons would threaten more than humanity and the public conscience. They would likely violate other key rules of international law. Their use would create a gap in accountability because no one could be held individually liable for the unforeseeable actions of an autonomous robot.

    Per di più, the existence of killer robots would spark widespread proliferation and an arms race – dangerous developments made worse by the fact that fully autonomous weapons would be vulnerable to hacking or technological failures.

    Bolstering the case for a ban, our Martens Clause assessment highlights in particular how delegating life-and-death decisions to machines would violate core human values. Our report finds that there should always be meaningful human control over the use of force. We urge countries at this U.N. meeting to work toward a new treaty that would save people from lethal attacks made without human judgment or compassion. A clear ban on fully autonomous weapons would reinforce the longstanding moral and legal foundations of international humanitarian law articulated in the Martens Clause.

    Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com