• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • L'intelligenza artificiale è già stata armata e mostra perché dovremmo vietare i robot killer

    Credito:Oleg Yarko/Shutterstock

    Nel dibattito sui cosiddetti robot killer sta emergendo una linea di demarcazione. Molti paesi vogliono vedere una nuova legge internazionale sui sistemi d'arma autonomi in grado di colpire e uccidere le persone senza l'intervento umano. Ma quei paesi che già stanno sviluppando tali armi stanno invece cercando di evidenziare i loro presunti benefici.

    Ho assistito a questo divario crescente in una recente riunione delle Nazioni Unite di oltre 70 paesi a Ginevra, dove quelli a favore delle armi autonome, compresi gli Stati Uniti, Australia e Corea del Sud, erano più vocali che mai. All'incontro, gli Stati Uniti hanno affermato che tali armi potrebbero effettivamente rendere più facile seguire il diritto umanitario internazionale rendendo più precisa l'azione militare.

    Eppure è altamente speculativo affermare che i "robot assassini" saranno mai in grado di seguire il diritto umanitario. E mentre i politici continuano a discutere su questo, la diffusione dell'autonomia e dell'intelligenza artificiale nella tecnologia militare esistente sta già fissando di fatto standard indesiderabili per il suo ruolo nell'uso della forza.

    Una serie di lettere aperte di eminenti ricercatori che si sono espressi contro l'uso di armi dell'intelligenza artificiale ha contribuito a portare il dibattito sui sistemi militari autonomi all'attenzione del pubblico. Il problema è che il dibattito è inquadrato come se questa tecnologia fosse qualcosa del futuro. Infatti, le questioni che solleva sono già effettivamente affrontate dai sistemi esistenti.

    La maggior parte dei sistemi di difesa aerea ha già una significativa autonomia nel processo di mira, e gli aerei militari hanno caratteristiche altamente automatizzate. Ciò significa che i "robot" sono già coinvolti nell'identificazione e nel coinvolgimento degli obiettivi.

    Nel frattempo, un'altra importante questione sollevata dalla tecnologia attuale manca nella discussione in corso. I droni telecomandati sono attualmente utilizzati dalle forze armate di diversi paesi per sganciare bombe su obiettivi. Ma sappiamo dagli incidenti in Afghanistan e altrove che le immagini dei droni non sono sufficienti per distinguere chiaramente tra civili e combattenti. Sappiamo anche che l'attuale tecnologia di intelligenza artificiale può contenere pregiudizi significativi che influiscono sul suo processo decisionale, spesso con effetti dannosi.

    Gli umani premono ancora il grilletto, ma per quanto tempo? Credito:Burlingham/Shutterstock

    Poiché è probabile che i futuri velivoli completamente autonomi vengano utilizzati in modi simili ai droni, probabilmente seguiranno le pratiche stabilite dai droni. Tuttavia, gli stati che utilizzano tecnologie autonome esistenti le escludono dal dibattito più ampio riferendosi ad esse come "semi-autonomi" o cosiddetti "sistemi legacy". Ancora, questo fa sembrare la questione dei "robot killer" più futuristica di quanto non sia in realtà. Ciò impedisce anche alla comunità internazionale di esaminare più da vicino se questi sistemi siano fondamentalmente appropriati ai sensi del diritto umanitario.

    Diversi principi chiave del diritto internazionale umanitario richiedono giudizi umani deliberati di cui le macchine sono incapaci. Per esempio, la definizione legale di chi è un civile e chi è un combattente non è scritta in un modo che potrebbe essere programmato nell'IA, e le macchine non hanno la consapevolezza della situazione e la capacità di dedurre le cose necessarie per prendere questa decisione.

    Processo decisionale invisibile

    Più profondamente, più vengono scelti obiettivi e potenzialmente attaccati dalle macchine, meno sappiamo come vengono prese queste decisioni. I droni fanno già molto affidamento sui dati di intelligence elaborati da algoritmi "scatola nera" molto difficili da comprendere per scegliere i bersagli proposti. Ciò rende più difficile per gli operatori umani che effettivamente premono il grilletto per mettere in discussione le proposte target.

    Mentre l'ONU continua a dibattere su questo problema, vale la pena notare che la maggior parte dei paesi favorevoli alla messa al bando delle armi autonome sono paesi in via di sviluppo, che in genere hanno meno probabilità di partecipare ai colloqui internazionali sul disarmo. Quindi il fatto che siano disposti a parlare con forza contro le armi autonome rende il loro agire ancora più significativo. La loro storia di interventi e invasioni da parte di più ricchi, anche i paesi più potenti (come alcuni di quelli favorevoli alle armi autonome) ci ricordano che sono i più a rischio per questa tecnologia.

    Dato ciò che sappiamo sui sistemi autonomi esistenti, dovremmo essere molto preoccupati che i "robot assassini" rendano più frequenti le violazioni del diritto umanitario, non meno, probabile. Questa minaccia può essere prevenuta solo negoziando un nuovo diritto internazionale che ne limiti l'uso.

    Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com