• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Nuove leggi della robotica necessarie per affrontare l'IA:esperto

    Il mondo è cambiato da quando l'autore di fantascienza Asimov nel 1942 scrisse le sue tre regole per i robot

    Decenni dopo che Isaac Asimov scrisse per la prima volta le sue leggi per i robot, il loro ruolo in continua espansione nelle nostre vite richiede un nuovo insieme di regole radicali, L'esperto legale e di intelligenza artificiale Frank Pasquale ha avvertito giovedì.

    Il mondo è cambiato da quando l'autore di fantascienza Asimov nel 1942 scrisse le sue tre regole per i robot, compreso che non dovrebbero mai nuocere agli esseri umani, e gli onnipresenti computer e algoritmi di oggi richiedono misure aggiornate.

    Secondo Pasquale, autore di "The Black Box Society:The Secret Algorithms Behind Money and Information", quattro nuove regole di ispirazione legale dovrebbero essere applicate ai robot e all'intelligenza artificiale nella nostra vita quotidiana.

    "Il primo è che i robot dovrebbero integrare piuttosto che sostituire i professionisti", ha detto Pasquale all'AFP a margine di una conferenza sulla robotica presso la Pontificia Accademia delle Scienze del Vaticano.

    "Piuttosto che avere un dottore robot, dovresti sperare di avere un medico che capisca davvero come funziona l'IA e riceva ottimi consigli dall'IA, ma alla fine è una decisione del medico decidere cosa fare e cosa non fare".

    "Il secondo è che dobbiamo fermare la corsa agli armamenti robotici. Ci sono molte persone in questo momento che stanno investendo in robot da guerra, robot militari, robot di polizia".

    Niente umanoidi

    Pasquale, un docente di diritto presso l'Università del Maryland, afferma che è importante che qualsiasi investimento nella robotica militare o nell'intelligenza artificiale fornisca qualche vantaggio che "non sarà immediatamente annullato dai tuoi nemici".

    "È solo deprimente, sono soldi in un buco, costruisci un robot che può dire se il mio robot può dire se il tuo robot può dire se il mio robot sta per attaccare. Semplicemente non finisce mai".

    Il terzo, e più controverso, la regola non è creare robot umanoidi o IA, dice Pasquale, citando l'esempio di un assistente di Google chiamato Duplex che chiamava le persone per confermare le prenotazioni alberghiere senza dire loro che stavano parlando con un computer.

    I robot possono sembrare umanoidi "solo se è assolutamente necessario al compito, " disse Pasquale

    "C'è stato un contraccolpo immediato perché la gente pensava che fosse Google che cercava di spacciare le sue macchine per esseri umani e penso che il principio della contraffazione sia il più importante, che non dovremmo falsificare l'umanità."

    I robot possono sembrare umanoidi "solo se è assolutamente necessario al compito, "disse Pasquale, come "robot della cura o robot del sesso".

    La quarta e ultima legge è che qualsiasi robot o intelligenza artificiale dovrebbe essere "attribuibile o di proprietà di una persona o di una società composta da persone perché... sappiamo come punire le persone ma non sappiamo come punire le macchine".

    Tecnologia a due livelli

    "Se abbiamo droni che volano in giro per il posto che sono autonomi, auto autonome, bot online che parlano su Twitter o in azioni di trading finanziario, tutti questi devono essere attribuiti a una persona."

    "Ci sono aziende come Facebook in cui si limitano a multare l'azienda ma non costringono mai nessuna persona a rinunciare ai soldi o a essere incarcerata per aver fatto qualcosa di sbagliato. E questo è un problema.

    "Abbiamo già un problema con le aziende e se permettiamo ai robot di essere là fuori senza essere attribuibili a una persona o a un'azienda, le cose peggiorano, "disse Pasquale, il cui libro "New Laws of Robotics" sarà pubblicato dalla Harvard University Press.

    Ciò che deve essere evitato a tutti i costi è la tecnologia a due livelli, come proposto da Boeing per i suoi aerei di linea 737-MAX, a terra dopo che centinaia di persone sono morte in due incidenti attribuiti a un sensore guasto a causa di un errore del software.

    "Hanno preso una decisione ad un livello molto alto che avrebbero permesso alle compagnie aeree di acquistare un secondo sensore, ma questo sarebbe stato un costo aggiuntivo, Penso che fosse 80, 000 dollari in più per aereo, e questo per me prefigura un sacco di problemi".

    "Parte di ciò che la legge deve fare è intervenire e dire alcuni di questi accordi che non consentiremo, diremo che abbiamo uno standard per il volo, è un unico standard non è come oh devo cercare se Ryanair, American Airlines o Lufthansa hanno acquistato il sensore aggiuntivo, perché è una follia".

    © 2019 AFP




    © Scienza https://it.scienceaq.com