La robotica si sta rapidamente trasformando grazie ai progressi dell'intelligenza artificiale. E i vantaggi sono diffusi:stiamo assistendo a veicoli più sicuri con la capacità di frenare automaticamente in caso di emergenza, bracci robotici che trasformano le linee di fabbrica che un tempo erano offshore e nuovi robot in grado di fare qualsiasi cosa, dal fare la spesa alla consegna di farmaci da prescrizione a persone che hanno difficoltà a farlo da soli.
Ma il nostro appetito sempre crescente per l'intelligente, macchine autonome pone una serie di sfide etiche.
I rapidi progressi hanno portato a dilemmi etici
Queste e altre idee stavano vorticando quando i miei colleghi e io ci siamo incontrati all'inizio di novembre in una delle più grandi conferenze di ricerca incentrata sulla robotica autonoma al mondo:la Conferenza internazionale IEEE sui robot e i sistemi intelligenti. Là, accademici, ricercatori aziendali, e gli scienziati del governo hanno presentato sviluppi negli algoritmi che consentono ai robot di prendere le proprie decisioni.
Come per tutta la tecnologia, la gamma di usi futuri per la nostra ricerca è difficile da immaginare. È ancora più difficile fare previsioni data la rapidità con cui questo campo sta cambiando. Prendere, Per esempio, la capacità di un computer di identificare gli oggetti in un'immagine:nel 2010, lo stato dell'arte ha avuto successo solo circa la metà delle volte, ed è rimasto bloccato lì per anni. Oggi, anche se, i migliori algoritmi, come mostrato nei documenti pubblicati, hanno ora una precisione dell'86%. Solo questo progresso consente ai robot autonomi di capire cosa stanno vedendo attraverso gli obiettivi della fotocamera. Mostra anche il rapido ritmo dei progressi negli ultimi dieci anni a causa degli sviluppi nell'IA.
Questo tipo di miglioramento è una vera pietra miliare dal punto di vista tecnico. Mentre in passato la revisione manuale di una serie di filmati richiedeva un numero incredibile di ore, ora tali dati possono essere analizzati rapidamente e accuratamente da un programma per computer.
Ma solleva anche un dilemma etico. Nel rimuovere gli esseri umani dal processo, i presupposti che stanno alla base delle decisioni relative alla privacy e alla sicurezza sono stati fondamentalmente alterati. Per esempio, l'uso di telecamere nelle strade pubbliche potrebbe aver sollevato problemi di privacy 15 o 20 anni fa, ma l'aggiunta di un'accurata tecnologia di riconoscimento facciale altera drasticamente tali implicazioni sulla privacy.
Sistemi facili da modificare
Quando si sviluppano macchine in grado di prendere le proprie decisioni, in genere chiamate sistemi autonomi, le questioni etiche che sorgono sono probabilmente più preoccupanti di quelle relative al riconoscimento degli oggetti. L'autonomia potenziata dall'intelligenza artificiale si sta sviluppando così rapidamente che le capacità che un tempo erano limitate a sistemi altamente ingegnerizzati sono ora disponibili per chiunque abbia una cassetta degli attrezzi domestica e una certa esperienza con il computer.
Le persone senza esperienza in informatica possono apprendere alcuni degli strumenti di intelligenza artificiale più all'avanguardia, e i robot sono più che disposti a lasciarti eseguire le tue nuove tecniche di apprendimento automatico su di loro. Ci sono forum online pieni di persone desiderose di aiutare chiunque a imparare come farlo.
Con gli strumenti precedenti, era già abbastanza facile programmare il tuo drone minimamente modificato per identificare una borsa rossa e seguirla. La più recente tecnologia di rilevamento degli oggetti sblocca la capacità di tracciare una serie di cose che assomigliano a più di 9, 000 diversi tipi di oggetti. Combinato con il più recente, droni più manovrabili, non è difficile immaginare con quanta facilità possano essere equipaggiati con armi. Cosa impedisce a qualcuno di legare un esplosivo o un'altra arma a un drone dotato di questa tecnologia?
Utilizzando una varietà di tecniche, i droni autonomi sono già una minaccia. Sono stati sorpresi a far cadere esplosivi sulle truppe statunitensi, la chiusura degli aeroporti e l'utilizzo in un tentativo di omicidio del leader venezuelano Nicolas Maduro. I sistemi autonomi che si stanno sviluppando in questo momento potrebbero rendere la messa in scena di tali attacchi più facile e più devastante.
Regolamento o commissioni di revisione?
Circa un anno fa, un gruppo di ricercatori in intelligenza artificiale e robotica autonoma si è impegnato ad astenersi dallo sviluppo di armi letali autonome. Hanno definito armi autonome letali come piattaforme in grado di "selezionare e ingaggiare bersagli senza intervento umano". In qualità di ricercatore di robotica che non è interessato a sviluppare tecniche di puntamento autonome, Sentivo che l'impegno ha mancato il punto cruciale del pericolo. Ha sorvolato su importanti questioni etiche che devono essere affrontate, specialmente quelli nell'ampia intersezione delle applicazioni dei droni che potrebbero essere benigne o violente.
Per uno, i ricercatori, le aziende e gli sviluppatori che hanno scritto i documenti e costruito il software e i dispositivi generalmente non lo fanno per creare armi. Però, potrebbero inavvertitamente consentire ad altri, con competenze minime, per creare tali armi.
Cosa possiamo fare per affrontare questo rischio?
Il regolamento è un'opzione, e uno già utilizzato vietando i droni aerei vicino agli aeroporti o intorno ai parchi nazionali. quelli sono utili, ma non impediscono la creazione di droni armati. I regolamenti sulle armi tradizionali non sono un modello sufficiente, o. Generalmente rafforzano i controlli sul materiale di partenza o sul processo di fabbricazione. Sarebbe quasi impossibile con i sistemi autonomi, dove i materiali di partenza sono codici informatici ampiamente condivisi e il processo di produzione può avvenire a casa utilizzando componenti standard.
Un'altra opzione sarebbe quella di seguire le orme dei biologi. Nel 1975, hanno tenuto una conferenza sui potenziali rischi del DNA ricombinante ad Asilomar in California. Là, gli esperti hanno concordato linee guida volontarie che avrebbero orientato il corso del lavoro futuro. Per i sistemi autonomi, un tale risultato sembra improbabile a questo punto. Molti progetti di ricerca che potrebbero essere utilizzati nello sviluppo di armi hanno anche risultati pacifici e incredibilmente utili.
Una terza scelta sarebbe quella di istituire organi di autogoverno a livello di organizzazione, come i comitati di revisione istituzionale che attualmente sovrintendono gli studi sui soggetti umani presso le aziende, università e laboratori governativi. Questi consigli considerano i benefici per le popolazioni coinvolte nella ricerca e creano modi per mitigare i potenziali danni. Ma possono regolamentare solo la ricerca svolta all'interno delle loro istituzioni, che ne limita la portata.
Ancora, un gran numero di ricercatori rientrerebbe nell'ambito di competenza di questi comitati:all'interno della comunità di ricerca sulla robotica autonoma, quasi tutti i presentatori alle conferenze tecniche sono membri di un'istituzione. I comitati di revisione della ricerca sarebbero un primo passo verso l'autoregolamentazione e potrebbero segnalare progetti che potrebbero essere trasformati in armi.
Vivere con il pericolo e la promessa
Molti dei miei colleghi ed io siamo entusiasti di sviluppare la prossima generazione di sistemi autonomi. Sento che il potenziale per il bene è troppo promettente per essere ignorato. Ma sono anche preoccupato per i rischi che le nuove tecnologie comportano, soprattutto se vengono sfruttati da persone maligne. Eppure, con un'attenta organizzazione e conversazioni informate oggi, Credo che possiamo lavorare per raggiungere questi benefici limitando il potenziale danno.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.