Se sei un fan della serie di film "Terminator", hai già visto uno spaventoso scorcio immaginario di un campo di battaglia distopico da incubo in cui macchine dotate di intelligenza artificiale hanno il potere illimitato di uccidere gli umani.
Sebbene le armi completamente autonome - il termine tecnico per i robot killer - non siano ancora una realtà, il rapido progresso della robotica e dell'intelligenza artificiale solleva lo spettro di eserciti che presto avranno carri armati e aerei in grado di attaccare senza un essere umano ai comandi.
Secondo un rapporto del 2017 del Center for a New American Security, più di 30 paesi hanno o stanno sviluppando aerei droni armati. L'agenzia di stampa russa TASS ha anche riferito nel 2017 sullo sviluppo di quel paese di un "modulo di combattimento" automatizzato - un carro armato robotico - in grado di utilizzare l'intelligenza artificiale per identificare obiettivi e prendere decisioni. E mentre l'attuale politica degli Stati Uniti esclude le armi completamente autonome, il Pentagono sta sviluppando robot aerei e terrestri che opererebbero in sciami di 250 o più, svolgere funzioni di sorveglianza e altre funzioni per supportare le truppe umane. E secondo il South China Morning Post, La Cina sta lavorando per sviluppare sottomarini dotati di intelligenza artificiale che aiuterebbero i comandanti a prendere decisioni tattiche.
La rapida corsa all'automazione della guerra sta allarmando gli scienziati, e in tutto il mondo, c'è un crescente movimento per fermare lo sviluppo di armi autonome prima che la tecnologia abbia la possibilità di proliferare. Vicino a 4, 000 ricercatori e scienziati di intelligenza artificiale e robotica in altri campi, tra cui il fondatore di SpaceX e Tesla Elon Musk, Il co-fondatore di Apple Steve Wozniak e il compianto astrofisico Stephen Hawking hanno firmato una lettera aperta al mondo, sollecitando il divieto di "armi autonome offensive che sfuggono al controllo umano significativo". Organizzazioni come la Campaign to Stop Killer Robots sono diventate sempre più esplicite sulla necessità di restrizioni su tale tecnologia.
"Siamo solo a pochi anni di distanza, "Toby Walsh, il Professore Scientia di Intelligenza Artificiale presso l'Università australiana del New South Wales, avverte in una e-mail. "I prototipi esistono in ogni sfera di battaglia:nell'aria, per terra, sul mare e sotto il mare».
Walsh è stato coinvolto nello sforzo diversi anni fa, quando gli fu chiaro che "stava iniziando una corsa agli armamenti per sviluppare tali armi, e abbiamo avuto l'opportunità di prevenire il futuro distopico così spesso rappresentato da Hollywood".
Walsh e altri ricercatori di intelligenza artificiale hanno recentemente utilizzato la loro importanza nel campo per esercitare pressione. Dopo KAIST (Korea Advanced Institute of Science and Technology), un'università di ricerca sudcoreana, ha lanciato un nuovo centro dedicato alle convergenze di AI e difesa nazionale, hanno inviato una lettera aperta al presidente del KAIST Sung-Chul Shin, minacciando un boicottaggio a meno che non fornisse assicurazioni che il centro non avrebbe sviluppato armi completamente autonome prive di un controllo umano significativo. (Sung ha successivamente rilasciato una dichiarazione in cui affermava che l'università non avrebbe sviluppato tali armi, secondo il Times Higher Education.)
Anche il movimento dei robot anti-killer sta seguendo da vicino gli sviluppi a Ginevra, dove rappresentanti di vari paesi si sono riuniti nell'aprile 2018 per una conferenza delle Nazioni Unite su cosa fare riguardo alle armi autonome.
Richard Moyes, l'amministratore delegato di cui all'articolo 36, un'organizzazione per il controllo degli armamenti con sede nel Regno Unito, afferma in una e-mail che le armi autonome potrebbero erodere il quadro giuridico che regola la guerra, che dipende dal fatto che gli esseri umani decidano se l'uso della forza sia legale in una data situazione. "Se alle macchine viene data un'ampia licenza per intraprendere attacchi, allora quelle valutazioni legali umane non saranno più basate su una reale comprensione delle circostanze sul campo, " scrive Moyes, ha ricevuto nel 2017 il Premio Nobel per la pace per il suo lavoro sulla riduzione delle armi nucleari. "Questo apre la strada a una vera disumanizzazione del conflitto".
Gli Stati Uniti presumibilmente sosterrebbero un divieto di robot killer. Nel 2012, l'amministrazione Obama ha emesso una direttiva - che la Casa Bianca di Trump apparentemente ha scelto di mantenere - che richiede che la tecnologia delle armi autonome dovrebbe essere progettata "per consentire a comandanti e operatori di esercitare adeguati livelli di giudizio umano sull'uso della forza". La direttiva richiede inoltre salvaguardie per la protezione contro il malfunzionamento delle armi autonome e il lancio di attacchi da soli. Il direttore della Defense Advanced Research Projects Agency (DARPA) Steven Walker ha dichiarato a marzo di dubitare che gli Stati Uniti avrebbero mai permesso alle macchine di prendere decisioni sull'uso della forza letale, secondo La collina.
In una e-mail, Il portavoce della DARPA Jared Adams afferma che la ricerca dell'agenzia si concentra invece su "investigare modi per garantire che la tecnologia migliori la capacità degli operatori umani di prendere decisioni rapide nei momenti critici piuttosto che erodere tale capacità". C'è la preoccupazione che la dipendenza degli operatori umani dall'automazione possa ridurre la loro consapevolezza situazionale quando hanno bisogno di invocarla - un problema che, secondo Adams, è illustrato dall'incidente del volo 447 di Air France nel 2009. "Per questo motivo, La ricerca di DARPA relativa all'autonomia cerca di trovare un equilibrio ottimale tra le varie modalità operative con l'accento sul fornire il massimo supporto decisionale ai combattenti, " lui dice.
Ma mettere fuori legge i robot killer a livello internazionale può rivelarsi difficile. Bonnie Docherty, ricercatore senior di armi presso Human Rights Watch e direttore associato dei conflitti armati e della protezione civile presso l'International Human Rights Clinic della Harvard Law School, afferma in una e-mail che mentre la maggior parte dei paesi alla conferenza delle Nazioni Unite è preoccupata per le armi autonome, non c'è ancora consenso per un divieto internazionale legalmente vincolante.
Un divieto ai robot killer funzionerebbe? Un trattato internazionale di lunga data che vieta le armi chimiche, Per esempio, a quanto pare non ha fermato l'uso di tali armi nella guerra civile siriana.
Tuttavia, Docherty ha sostenuto che i divieti sulle armi chimiche, le mine antiuomo e le munizioni a grappolo hanno ancora salvato vite. "Tali leggi vincolano i paesi che vi aderiscono, e stigmatizzando le armi problematiche possono influenzare anche i paesi che non ne fanno parte. Qualsiasi legge, anche contro un crimine ampiamente accettato come l'omicidio, può essere violata da un attore canaglia, ma ciò non significa che tali leggi non debbano essere adottate. La legge ha ancora un impatto significativo sulla condotta e dovrebbe essere adottato un nuovo trattato internazionale per prevenire le armi completamente autonome, " lei scrive.
Ora è interessanteIl video "Slaughterbots", creato con l'aiuto dell'Università della California, Stuart Russell, professore di informatica e ingegneria a Berkeley, descrive uno scenario orribile in cui piccoli droni rintracciano e assassinano individui selezionati, che vengono identificati attraverso i social media. L'idea era di drammatizzare come la tecnologia potesse essere utilizzata come arma di distruzione di massa, Russell ha spiegato in un'intervista con ABC7 News.