• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Perché abbiamo bisogno di più dei semplici dati per creare auto senza conducente etiche?

    Come possiamo rendere etiche le auto senza conducente? Credito:da www.shutterstock.com

    Cosa vogliamo che facciano le auto senza conducente in incidenti mortali inevitabili?

    Oggi i ricercatori hanno pubblicato un articolo sull'esperimento The Moral Machine per rispondere a questa domanda.

    Per creare dati per lo studio, quasi 40 milioni di persone provenienti da 233 paesi hanno utilizzato un sito Web per registrare le decisioni su chi salvare e chi lasciare morire in ipotetici scenari di auto senza conducente. È una versione del classico cosiddetto "dilemma del carrello" - in cui devi dare la preferenza alle persone a cui dare la priorità in caso di emergenza.

    Alcuni dei risultati chiave sono intuitivi:i partecipanti preferiscono salvare le persone agli animali, il giovane sopra il vecchio, e più piuttosto che meno. Altre preferenze sono più preoccupanti:le donne sugli uomini, dirigenti sui senzatetto, la misura sopra l'obeso.

    L'esperimento non ha precedenti sia per portata che per sofisticatezza:ora abbiamo un'idea molto migliore di come le preferenze delle persone in tali dilemmi variano in tutto il mondo. Gli autori, Sensibilmente, cautela nel considerare i risultati come una semplice guida su cosa dovrebbero fare le auto a guida autonoma.

    Ma questa è solo la prima mossa di quello che deve essere un dibattito vigoroso. E in quel dibattito, sondaggi come questi (per quanto interessanti) possono svolgere solo un ruolo limitato.

    Quanto è buono il nostro primo giudizio?

    Le macchine sono molto più veloci di noi; non si fanno prendere dal panico. Al loro meglio, potrebbero incarnare la nostra saggezza ponderata e applicarla efficacemente anche in circostanze strazianti. Fare quello, però, dobbiamo iniziare con buoni dati.

    I clic sui quiz online sono un ottimo modo per scoprire cosa pensano le persone prima di esprimere il loro giudizio. Eppure, ovviamente, non assecondiamo tutti i pregiudizi. Gli autori hanno omesso razza e nazionalità come motivi di scelta, e giustamente.

    Una buona progettazione del sondaggio non può essere eseguita nel vuoto. E le preferenze morali non dovrebbero essere solo gusti. Per elaborare la cosa moralmente giusta da fare (pensa a qualsiasi scelta moralmente gravosa che hai dovuto affrontare), devi pensare seriamente

    Vogliamo basare l'intelligenza artificiale etica sui nostri migliori giudizi, non necessariamente i nostri primi.

    Il mondo è "casuale"

    Lo studio ha utilizzato dilemmi che implicavano due risultati certi:o si colpisce definitivamente il passeggino o si uccide definitivamente il cane.

    Ma le decisioni effettive comportano una notevole incertezza:potresti non essere sicuro se la persona davanti sia un bambino o un piccolo adulto, se colpirli li ucciderebbe o li ferirebbe, se una sterzata ad alta velocità potrebbe funzionare.

    I computer potrebbero fare previsioni migliori, ma il mondo è intrinsecamente "casuale". Questo è un grosso problema. Le preferenze aut-aut in alcuni casi arrivano solo fino a un certo punto nel dirci cosa fare in quelli rischiosi.

    Supponiamo che un veicolo a guida autonoma debba scegliere tra lasciarsi schiantare e uccidere così il suo passeggero anziano, o invece virare di lato e uccidere un neonato.

    L'esperimento della macchina morale prevede che le persone siano dalla parte del bambino. Ma non dice di quanto preferiremmo risparmiare l'uno rispetto all'altro. Forse è quasi un lancio, e ci limitiamo a risparmiare il bambino. O forse salvare il bambino è molto più importante che salvare il pensionato.

    Le opinioni su questo saranno estremamente diverse, e questo sondaggio non ci offre alcuna guida. Ma non sappiamo pesare, dire, una probabilità del 10% di uccidere il bambino contro una probabilità del 50% di uccidere il pensionato, a meno che non sappiamo quanto sia più importante risparmiare l'uno che risparmiare l'altro.

    Poiché letteralmente ogni scelta fatta dalle auto senza conducente sarà fatta in condizioni di incertezza, questo è un divario significativo.

    Quello che i sondaggi non possono dirci

    La motivazione per l'esperimento della macchina morale è comprensibile. La responsabilità di codificare la prossima generazione di intelligenza artificiale etica è scoraggiante.

    Il disaccordo morale sembra diffuso. Un sondaggio sembra un buon modo per triangolare le opinioni in un mondo infuocato.

    Ma il modo in cui gestiamo il disaccordo morale non è solo un problema scientifico. È anche morale. E, fin dai tempi degli antichi greci, la soluzione a quel problema morale non è aggregare le preferenze, ma partecipazione democratica.

    Senza dubbio la democrazia è in crisi, almeno in alcune parti del mondo ricco. Ma rimane il nostro strumento più importante per prendere decisioni in presenza di inevitabili disaccordi.

    Il processo decisionale democratico non può essere ridotto al segno di spunta. Si tratta di prendere sul serio il tuo voto, non solo facendo clic su una casella su un sito web. Implica la partecipazione, discussione, e reciproca giustificazione.

    Sondaggi come questo non possono dirci perché le persone preferiscono le opzioni che fanno. Il fatto che la decisione di un'auto a guida autonoma sia correlata alle opinioni degli altri non lo fa, da solo, giustificare quella scelta (immagina un guidatore umano che giustifica le sue azioni in un incidente allo stesso modo).

    La giustificazione reciproca è il cuore della cittadinanza democratica. E presuppone impegnarsi non solo con quelle che sono le nostre scelte, ma perché li facciamo.

    Decidere insieme

    Studi come questo sono intrinsecamente interessanti, e gli autori di questo sono mirabilmente espliciti su cosa sia, e ciò che non è progettato per mostrare.

    Per costruire su queste basi abbiamo bisogno di fare molta più riflessione su come pesare i nostri impegni morali nell'incertezza.

    E dobbiamo farlo come parte di un processo democratico inclusivo in cui non aggreghiamo solo le preferenze delle persone, ma prendi sul serio il compito di decidere, insieme, il nostro futuro di intelligenza artificiale.

    Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com