• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  Science >> Scienza >  >> Altro
    Israele accusato di utilizzare l’intelligenza artificiale per prendere di mira migliaia di persone a Gaza, poiché gli algoritmi killer superano il diritto internazionale

    Credito:dominio pubblico Pixabay/CC0

    Secondo un rapporto pubblicato la scorsa settimana, l’esercito israeliano ha utilizzato un nuovo sistema di intelligenza artificiale (AI) per generare elenchi di decine di migliaia di obiettivi umani per potenziali attacchi aerei su Gaza. Il rapporto proviene dall'organo no-profit +972 Magazine, gestito da giornalisti israeliani e palestinesi.



    Il rapporto cita interviste con sei fonti anonime dell'intelligence israeliana. Le fonti affermano che il sistema, noto come Lavender, è stato utilizzato insieme ad altri sistemi di intelligenza artificiale per prendere di mira e assassinare presunti militanti, molti dei quali nelle proprie case, causando un gran numero di vittime civili.

    Secondo un altro rapporto del Guardian, basato sulle stesse fonti del rapporto +972, un ufficiale dell'intelligence ha affermato che il sistema "ha reso più semplice" l'esecuzione di un gran numero di attacchi, perché "la macchina lo ha fatto con freddezza".

    Mentre gli eserciti di tutto il mondo corrono per utilizzare l'intelligenza artificiale, questi rapporti ci mostrano come potrebbe apparire:una guerra a velocità meccanica con precisione limitata e scarsa supervisione umana, con un costo elevato per i civili.

    L'intelligenza artificiale militare a Gaza non è una novità

    Le forze di difesa israeliane negano molte delle affermazioni contenute in questi rapporti. In una dichiarazione al Guardian, ha affermato che "non utilizza un sistema di intelligenza artificiale che identifica gli agenti terroristici". Ha affermato che Lavender non è un sistema di intelligenza artificiale ma "semplicemente un database il cui scopo è quello di fare riferimenti incrociati alle fonti di intelligence".

    Ma nel 2021, il Jerusalem Post ha riferito che un funzionario dell’intelligence affermava che Israele aveva appena vinto la sua prima “guerra contro l’intelligenza artificiale” – un precedente conflitto con Hamas – utilizzando una serie di sistemi di apprendimento automatico per vagliare i dati e produrre obiettivi. Nello stesso anno un libro intitolato The Human-Machine Team, che delineava una visione della guerra basata sull'intelligenza artificiale, fu pubblicato sotto uno pseudonimo da un autore che recentemente si è rivelato essere il capo di un'unità chiave dell'intelligence clandestina israeliana.

    L’anno scorso, un altro rapporto +972 affermava che Israele utilizza anche un sistema di intelligenza artificiale chiamato Habsora per identificare potenziali edifici e strutture militanti da bombardare. Secondo il rapporto, Habsora genera obiettivi "quasi automaticamente" e un ex ufficiale dell'intelligence lo ha descritto come "una fabbrica di assassinio di massa".

    Il recente rapporto +972 afferma inoltre che un terzo sistema, chiamato Dov'è papà?, monitora gli obiettivi identificati da Lavender e allerta i militari quando tornano a casa, spesso dalle loro famiglie.

    Morte per algoritmo

    Diversi paesi si stanno rivolgendo agli algoritmi alla ricerca di un vantaggio militare. Il Project Maven dell'esercito americano fornisce puntamenti IA che sono stati utilizzati in Medio Oriente e Ucraina. Anche la Cina si sta affrettando a sviluppare sistemi di intelligenza artificiale per analizzare dati, selezionare obiettivi e aiutare nel processo decisionale.

    I sostenitori dell'intelligenza artificiale militare sostengono che consentirà un processo decisionale più rapido, una maggiore precisione e una riduzione delle vittime in guerra.

    Eppure l’anno scorso, Middle East Eye ha riferito che un ufficio di intelligence israeliano ha affermato che sottoporre a revisione umana ogni obiettivo generato dall’intelligenza artificiale a Gaza “non era affatto fattibile”. Un'altra fonte ha detto a +972 che personalmente "investirebbero 20 secondi per ciascun bersaglio" essendo semplicemente un "timbro di gomma" di approvazione.

    La risposta delle Forze di Difesa Israeliane al rapporto più recente afferma che "gli analisti devono condurre esami indipendenti, in cui verificare che gli obiettivi identificati soddisfino le definizioni pertinenti in conformità con il diritto internazionale".

    Per quanto riguarda l’accuratezza, l’ultimo rapporto +972 afferma che Lavender automatizza il processo di identificazione e controllo incrociato per garantire che un potenziale obiettivo sia una figura militare di alto livello di Hamas. Secondo il rapporto, Lavender ha allentato i criteri di targeting per includere personale di rango inferiore e standard di prova più deboli, e ha commesso errori in "circa il 10% dei casi".

    Il rapporto afferma inoltre che un ufficiale dell'intelligence israeliana ha affermato che a causa del messaggio Dov'è papà? sistema, gli obiettivi verrebbero bombardati nelle loro case "senza esitazione, come prima opzione", provocando vittime civili. L'esercito israeliano afferma di "respingere apertamente ogni affermazione riguardante qualsiasi politica volta a uccidere decine di migliaia di persone nelle loro case".

    Regole per l'IA militare?

    Man mano che l’uso militare dell’intelligenza artificiale diventa più comune, le preoccupazioni etiche, morali e legali sono state in gran parte un ripensamento. Finora non esistono regole chiare, universalmente accettate o giuridicamente vincolanti sull'IA militare.

    Da più di dieci anni le Nazioni Unite discutono di “sistemi d’arma autonomi letali”. Si tratta di dispositivi in ​​grado di prendere decisioni su bersagli e spari senza il contributo umano, a volte noti come "robot assassini". L'anno scorso abbiamo visto alcuni progressi.

    L’Assemblea generale delle Nazioni Unite ha votato a favore di un nuovo progetto di risoluzione per garantire che gli algoritmi “non debbano avere il pieno controllo delle decisioni che comportano l’uccisione”. Lo scorso ottobre, gli Stati Uniti hanno anche rilasciato una dichiarazione sull’uso militare responsabile dell’intelligenza artificiale e sull’autonomia, che da allora è stata approvata da altri 50 stati. Lo scorso anno si è tenuto anche il primo vertice sull'uso responsabile dell'intelligenza artificiale militare, co-ospitato dai Paesi Bassi e dalla Repubblica di Corea.

    Nel complesso, le norme internazionali sull'uso dell'intelligenza artificiale militare faticano a tenere il passo con il fervore degli stati e delle aziende produttrici di armi per la guerra ad alta tecnologia basata sull'intelligenza artificiale.

    Affrontare l'"ignoto"

    Secondo quanto riferito, alcune startup israeliane che realizzano prodotti abilitati all’intelligenza artificiale stanno facendo del loro utilizzo a Gaza un punto di vendita. Tuttavia, i resoconti sull'uso dei sistemi di intelligenza artificiale a Gaza suggeriscono quanto l'intelligenza artificiale sia ben lontana dal sogno di una guerra di precisione, creando invece gravi danni umanitari.

    La scala industriale con cui i sistemi di intelligenza artificiale come Lavender possono generare obiettivi di fatto "spiazza gli esseri umani per impostazione predefinita" nel processo decisionale.

    La disponibilità ad accettare i suggerimenti dell'intelligenza artificiale senza quasi alcun controllo umano amplia inoltre la portata dei potenziali obiettivi, infliggendo danni maggiori.

    Creare un precedente

    I rapporti su Lavender e Habsora ci mostrano cosa è già in grado di fare l’attuale intelligenza artificiale militare. I rischi futuri legati all'intelligenza artificiale militare potrebbero aumentare ulteriormente.

    L’analista militare cinese Chen Hanghui ha immaginato una futura “singolarità del campo di battaglia”, ad esempio, in cui le macchine prendono decisioni e agiscono a un ritmo troppo veloce perché un essere umano possa seguirle. In questo scenario, rimaniamo poco più che spettatori o vittime.

    Uno studio pubblicato all’inizio di quest’anno ha lanciato un altro avvertimento. Alcuni ricercatori statunitensi hanno condotto un esperimento in cui modelli linguistici di grandi dimensioni come GPT-4 hanno svolto il ruolo delle nazioni in un esercizio di wargame. Quasi inevitabilmente i modelli sono rimasti intrappolati nella corsa agli armamenti e hanno intensificato il conflitto in modi imprevedibili, compreso l'uso di armi nucleari.

    Il modo in cui il mondo reagisce agli attuali usi dell'intelligenza artificiale militare, come stiamo vedendo a Gaza, costituirà probabilmente un precedente per lo sviluppo e l'uso futuri della tecnologia.

    Fornito da The Conversation

    Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com