• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • I robot killer esistono già, e sono qui da molto tempo

    Credito:Mykola Holyutyak/Shutterstock

    Gli umani prenderanno sempre la decisione finale se i robot armati possono sparare, secondo una dichiarazione del Dipartimento della Difesa degli Stati Uniti. Il loro chiarimento arriva tra i timori su un nuovo sistema di targeting avanzato, noto come ATLANTE, che utilizzerà l'intelligenza artificiale nei veicoli da combattimento per mirare ed eseguire minacce. Mentre il pubblico potrebbe sentirsi a disagio per i cosiddetti "robot killer", il concetto non è una novità:i robot "SWORDS" armati di mitragliatrici sono stati schierati in Iraq già nel 2007.

    La nostra relazione con i robot militari risale addirittura a prima. Questo perché quando la gente dice "robot, " possono significare qualsiasi tecnologia con una qualche forma di elemento "autonomo" che le consente di svolgere un compito senza la necessità di un intervento umano diretto.

    Queste tecnologie esistono da molto tempo. Durante la seconda guerra mondiale, la miccia di prossimità è stata sviluppata per far esplodere i proiettili di artiglieria a una distanza predeterminata dal bersaglio. Ciò ha reso i gusci molto più efficaci di quanto non sarebbero stati altrimenti, aumentando il processo decisionale umano e, in alcuni casi, togliendo completamente l'essere umano dal giro.

    Quindi la domanda non è tanto se dovremmo usare sistemi d'arma autonomi in battaglia:li usiamo già, e assumono molte forme. Piuttosto, dovremmo concentrarci su come li usiamo, perché li usiamo, e quale forma – se del caso – dovrebbe assumere l'intervento umano.

    La nascita della cibernetica

    La mia ricerca esplora la filosofia delle relazioni uomo-macchina, con particolare attenzione all'etica militare, e il modo in cui distinguiamo tra umani e macchine. Durante la seconda guerra mondiale, matematico Norbert Wiener ha posto le basi della cibernetica - lo studio dell'interfaccia tra gli esseri umani, animali e macchine – nel suo lavoro sul controllo del fuoco antiaereo. Studiando le deviazioni tra il movimento previsto di un aereo, e il suo movimento effettivo, Wiener e il suo collega Julian Bigelow hanno ideato il concetto di "ciclo di feedback, " dove le deviazioni potrebbero essere reimmesse nel sistema al fine di correggere ulteriori previsioni.

    I sistemi di puntamento autonomi sono nati con innovazioni nelle armi antiaeree durante la seconda guerra mondiale. Credito:Zef Art/Shutterstock

    La teoria di Wiener andò quindi ben oltre il semplice aumento, poiché la tecnologia cibernetica potrebbe essere utilizzata per anticipare le decisioni umane - rimuovendo l'essere umano fallibile dal ciclo, per migliorare, decisioni più rapide e rendere più efficaci i sistemi d'arma.

    Negli anni successivi alla seconda guerra mondiale, il computer è emerso per affiancare la teoria cibernetica per formare un pilastro centrale del pensiero militare, dalle "bombe intelligenti" a guida laser dell'era del Vietnam ai missili da crociera e ai droni Reaper.

    Non è più sufficiente aumentare semplicemente il guerriero umano come era nei primi giorni. La fase successiva consiste nell'eliminare completamente l'umano, "massimizzando" i risultati militari riducendo al minimo il costo politico associato alla perdita di vite degli alleati. Ciò ha portato all'uso diffuso di droni militari da parte degli Stati Uniti e dei suoi alleati. Sebbene queste missioni siano molto controverse, in termini politici si sono rivelati di gran lunga preferibili all'indignazione pubblica provocata dalle morti dei militari.

    La macchina umana

    Una delle questioni più controverse relative alla guerra dei droni è il ruolo del pilota di droni o "operatore". Come tutto il personale, questi operatori sono tenuti dai loro datori di lavoro a "fare un buon lavoro". Però, i termini del successo sono tutt'altro che chiari. Come osserva la filosofa e critica culturale Laurie Calhoun:"Il compito degli operatori dell'UCAV [drone] è uccidere".

    In questo modo, il loro compito non è tanto quello di prendere una decisione umana, ma piuttosto per fare il lavoro per cui sono impiegati. Se il computer dice loro di uccidere, c'è davvero qualche motivo per cui non dovrebbero?

    Un moderno drone militare. Credito:Alex LMX/Shutterstock

    Un discorso simile si può fare rispetto al soldato moderno. Dalla navigazione GPS agli uplink video, i soldati portano numerosi dispositivi che li legano in una vasta rete che li monitora e li controlla ad ogni turno.

    Questo porta a un enigma etico. Se lo scopo del soldato è seguire gli ordini alla lettera – con le telecamere utilizzate per garantire la conformità – allora perché ci preoccupiamo dei soldati umani? Dopotutto, le macchine sono molto più efficienti degli esseri umani e non soffrono di fatica e stress come un essere umano. Se ci si aspetta che i soldati si comportino in modo programmatico, moda robotica comunque, allora che senso ha spargere sangue alleato non necessario?

    La risposta, qui, è che l'umano serve come alibi o forma di "copertura etica" per ciò che è in realtà, quasi del tutto meccanico, atto robotico. Proprio come il lavoro dell'operatore del drone è quello di supervisionare il drone controllato dal computer, quindi il ruolo dell'essere umano nel nuovo sistema ATLAS del Dipartimento della Difesa è semplicemente quello di agire come copertura etica nel caso in cui le cose vadano male.

    Mentre i droni Predator e Reaper possono stare in prima linea nell'immaginazione pubblica sull'autonomia militare e sui "robot killer, " queste innovazioni di per sé non sono una novità. Sono solo l'ultima di una lunga serie di sviluppi che risalgono a molti decenni fa.

    Sebbene possa confortare alcuni lettori immaginare che l'autonomia della macchina sarà sempre subordinata al processo decisionale umano, questo manca davvero il punto. I sistemi autonomi sono stati a lungo integrati nell'esercito e dovremmo prepararci alle conseguenze.

    Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com