Credito:Unsplash/CC0 di dominio pubblico
I letali sistemi d'arma autonomi richiedono un'attenta considerazione, ma gli scenari da incubo del futuro non diventeranno realtà presto, afferma un esperto di etica militare dell'UNSW a Canberra.
Il termine "robot assassini" evoca immagini di scenari di fantascienza in cui le guerre vengono combattute da soldati simili a Terminator, ma secondo Deane-Peter Baker, eticista militare dell'UNSW Canberra, non è così spaventoso o cinematografico.
In effetti, i robot killer, o i letali sistemi d'arma autonomi (LAWS), possono effettivamente salvare vite sul campo di battaglia.
L'ultimo libro del Professore Associato Baker, "Should we Ban Killer Robots?", attinge dalla sua esperienza nell'International Panel on the Regulation of Autonomous Weapons (IPRAW) dal 2017 al 2019.
IPRAW è una rete internazionale di ricercatori incaricata di fornire una guida imparziale alle delegazioni nazionali impegnate nel dibattito delle Nazioni Unite sull'opportunità o meno di vietare o regolamentare LE LEGGI.
"Questo libro è il mio tentativo di mettere insieme le mie opinioni su questo argomento, che sono emerse dal mio tempo come relatore IPRAW e da altri successivi lavori incentrati sulla politica su questo argomento", A/Prof. disse Baker.
Ha spiegato che ci sono due argomenti principali per vietare LEGGI. Uno si concentra sulle potenziali conseguenze di consentire l'uso delle LEGGI in guerra.
"Ad esempio, gli oppositori sono preoccupati che LAWS non sarà in grado di operare entro i confini della legge sui conflitti armati", A/Prof. disse Baker.
"La preoccupazione qui è che useranno la forza in modo indiscriminato o sproporzionato.
"L'altro tipo di argomento principale è che, conseguenze a parte, è semplicemente fondamentalmente sbagliato consentire a una macchina di fare la scelta di uccidere un essere umano."
Secondo A/Prof. Baker, gli stati meno sviluppati tendono a essere favorevoli a un divieto, mentre gli stati potenti e tecnologicamente avanzati non sono particolarmente favorevoli.
"I fautori di LEGGI sostengono che questi sistemi possono salvare vite in diversi modi", ha affermato.
"Ad esempio, si afferma che i robot possono essere inviati a svolgere lavori 'noiosi, pericolosi e sporchi' senza dover mettere a rischio un soldato umano, un marinaio o un aviatore, molto meglio che una macchina venga distrutta che per un membro dell'esercito forze da uccidere o mutilare.
"L'altro tipo di argomento principale è che, conseguenze a parte, è semplicemente fondamentalmente sbagliato consentire a una macchina di fare la scelta di uccidere un essere umano."
"Sostengono anche che LEGGI saranno meno inclini a usare la forza indiscriminata, perché non si spaventano, non si arrabbiano o non si confondono come fanno i combattenti umani nel bel mezzo di un combattimento."
A/Prof. Baker ha affermato che c'è anche l'argomento secondo cui un divieto internazionale non impedirà agli attori maligni di sviluppare e utilizzare questi sistemi, quindi non dovremmo offrire loro un vantaggio operativo significativo adottando un divieto e negandoci il loro utilizzo.
Quindi, ci ritroveremo presto in quella situazione di Terminator?
"Siamo molto lontani da ciò che accadrà, se mai accadrà!" A/Prof. Baker ha assicurato.
"Penso che non ci sia dubbio che cominceremo a vedere sempre più armi autonome letali che partecipano alle guerre:le Nazioni Unite credono che abbiamo già visto i primi esseri umani uccisi da armi autonome, nel conflitto in Yemen. Ma è mia opinione che loro sarà improbabile che svolga molto di più di un ruolo supplementare per un po' di tempo a venire."
A medio termine, ha affermato che i sistemi altamente sofisticati saranno molto costosi e quindi rari, mentre i sistemi autonomi semplici saranno vincolati da capacità limitate.
"A lungo termine inizieremo a vedere sistemi più sofisticati diventare più convenienti e quindi più prolifici, e i sistemi più semplici diventeranno essi stessi più capaci", A/Prof. disse Baker.
Spera che i lettori del libro riescano a comprendere meglio gli argomenti che sono stati sollevati a favore del divieto dei robot assassini.
"Anche se non sono d'accordo con la mia conclusione, si spera che il loro pensiero sia stato messo in discussione e le loro opinioni si siano affinate nel processo".