Gli algoritmi saranno presto in grado di decidere a chi rivolgersi. Credito:US Air Force
L'esercito degli Stati Uniti ha recentemente annunciato che sta sviluppando i primi droni in grado di individuare e prendere di mira veicoli e persone utilizzando l'intelligenza artificiale (AI). Questo è un grande passo avanti. Mentre gli attuali droni militari sono ancora controllati da persone, questa nuova tecnologia deciderà chi uccidere senza quasi alcun coinvolgimento umano.
Una volta completato, questi droni rappresenteranno la militarizzazione definitiva dell'IA e attiveranno vaste implicazioni legali ed etiche per la società in generale. C'è la possibilità che la guerra passi dalla lotta allo sterminio, perdendo ogni parvenza di umanità nel processo. Allo stesso tempo, potrebbe ampliare la sfera della guerra in modo che le compagnie, ingegneri e scienziati che costruiscono l'IA diventano obiettivi militari validi.
I droni militari letali esistenti come l'MQ-9 Reaper sono accuratamente controllati e pilotati via satellite. Se un pilota sgancia una bomba o lancia un missile, un operatore di sensori umano lo guida attivamente sul bersaglio scelto utilizzando un laser.
In definitiva, l'equipaggio ha l'etica finale, responsabilità legale e operativa per l'uccisione di bersagli umani designati. Come afferma un operatore dei Razziatori:"Sono molto della mentalità che consentirei a un insorto, per quanto importante sia un obiettivo, scappare piuttosto che prendere un colpo rischioso che potrebbe uccidere i civili".
Anche con queste uccisioni di droni, emozioni umane, i giudizi e l'etica sono sempre rimasti al centro della guerra. L'esistenza di traumi mentali e disturbo da stress post-traumatico (PTSD) tra gli operatori di droni mostra l'impatto psicologico dell'uccisione a distanza.
Un pilota mietitore MQ-9. Credito:US Air Force
E questo in realtà indica un possibile argomento militare ed etico di Ronald Arkin, a sostegno dei droni assassini autonomi. Forse se questi droni sganciassero le bombe, problemi psicologici tra i membri dell'equipaggio possono essere evitati. Il punto debole di questo argomento è che non devi essere responsabile dell'uccisione per esserne traumatizzato. Specialisti dell'intelligence e altro personale militare analizzano regolarmente i filmati grafici degli attacchi dei droni. La ricerca mostra che è possibile subire danni psicologici guardando frequentemente immagini di estrema violenza.
Quando ho intervistato oltre 100 membri dell'equipaggio di Reaper per un libro in uscita, ogni persona con cui ho parlato che ha condotto attacchi letali di droni credeva che, in definitiva, dovrebbe essere un umano a premere il grilletto finale. Elimina l'umano e anche l'umanità della decisione di uccidere.
Gravi conseguenze
La prospettiva di droni totalmente autonomi altererebbe radicalmente i complessi processi e le decisioni alla base delle uccisioni militari. Ma la responsabilità legale ed etica non scompare in qualche modo se si rimuove la supervisione umana. Anziché, la responsabilità ricadrà sempre più su altre persone, compresi gli scienziati dell'intelligenza artificiale.
Le implicazioni legali di questi sviluppi stanno già diventando evidenti. Secondo l'attuale diritto internazionale umanitario, Le strutture "dual-use" – quelle che sviluppano prodotti per applicazioni sia civili che militari – possono essere attaccate nelle giuste circostanze. Per esempio, nella guerra del Kosovo del 1999, la raffineria di petrolio di Pancevo è stata attaccata perché poteva alimentare i carri armati jugoslavi così come le auto civili.
Un mietitore MQ-9. Credito:US Air Force
Con un sistema d'arma drone autonomo, certe righe di codice informatico sarebbero quasi certamente classificate come a duplice uso. Aziende come Google, i suoi dipendenti o i suoi sistemi, potrebbe diventare soggetto ad attacchi da parte di uno stato nemico. Per esempio, se il software AI di riconoscimento delle immagini Project Maven di Google è incorporato in un drone militare autonomo americano, Google potrebbe trovarsi implicato nel business dell'"uccisione" dei droni, come potrebbe ogni altro contributo civile a tali sistemi autonomi letali.
Eticamente, ci sono ancora problemi ancora più oscuri. Il punto centrale degli algoritmi di autoapprendimento - programmi che apprendono indipendentemente da qualsiasi dato che possono raccogliere - che la tecnologia usa è che diventano migliori in qualunque compito gli venga assegnato. Se un letale drone autonomo deve migliorare nel suo lavoro attraverso l'autoapprendimento, qualcuno dovrà decidere su una fase di sviluppo accettabile – quanto deve ancora imparare – in cui può essere implementato. Nell'apprendimento automatico militarizzato, questo significa politico, i leader militari e industriali dovranno specificare quante morti civili saranno considerate accettabili man mano che la tecnologia viene raffinata.
Le recenti esperienze di IA autonoma nella società dovrebbero servire da monito. L'esperimento fatale di Uber con una Tesla a guida autonoma garantisce praticamente che ci saranno morti involontarie di droni autonomi man mano che i bug dei computer vengono risolti.
Se le macchine sono lasciate a decidere chi muore, soprattutto su larga scala, allora quello a cui stiamo assistendo è lo sterminio. Qualsiasi governo o esercito che scatenasse tali forze violerebbe i valori che affermava di difendere. In confronto, un pilota di droni alle prese con una decisione "uccidi o non uccidere" diventa l'ultima traccia di umanità nell'affare spesso disumano della guerra.
Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.