• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Definire la colpevolezza per contribuire a rendere morale l'IA

    Credito:CC0 Dominio Pubblico

    Diciamo che 100 persone vivono vicino a un lago. Se almeno 10 di loro pescano troppo quest'anno, l'intera popolazione ittica morirà. Ciascuno presuppone che almeno altri 10 pescheranno eccessivamente, e non ci sarà più niente da pescare nei prossimi anni.

    Dal momento che il pesce se ne andrà comunque, tutti decidono che potrebbero anche pescare troppo. Tutti i pesci muoiono. Tutte le persone meritano la colpa?

    Dipende se avrebbero potuto coordinarsi tra loro per cambiare il risultato e il costo di farlo, secondo una nuova ricerca di Joseph Halpern, il professore di ingegneria Joseph C. Ford, e Meir Friedenberg, uno studente di dottorato in informatica. Basandosi sul lavoro fondamentale di Halpern sulla causalità, hanno sviluppato un modello matematico per calcolare la colpevolezza su una scala da zero a uno.

    La ricerca – situata all'intersezione dell'informatica, filosofia e psicologia cognitiva - potenzialmente potrebbero essere utilizzate per guidare il comportamento di agenti artificialmente intelligenti, come veicoli senza conducente, per aiutarli a comportarsi in modo "morale".

    "Una delle cose che volevamo veramente fare è fornire un quadro che ci permetta di applicare questo tipo di nozioni legali e filosofiche a sistemi autonomi, " disse Friedenberg, primo autore di "Blameworthiness in Multi-Agent Settings, " che è stato presentato alla Conferenza AAAI 2019 sull'intelligenza artificiale a febbraio. "Pensiamo che sarà importante se integreremo efficacemente i sistemi autonomi nella società".

    Nei lavori precedenti, Halpern e colleghi hanno definito la colpevolezza degli individui approssimativamente come la misura in cui credono che le loro azioni possano cambiare l'esito di un evento. Per esempio, se hai votato contro un candidato che credevi avrebbe perso per un solo voto, la tua colpa sarebbe una, il massimo; ma se credevi che il candidato perderebbe di migliaia di voti, la tua colpevolezza sarebbe molto più bassa.

    Nel recente documento, Friedenberg e Halpern per primi hanno dato una definizione di colpevolezza di un gruppo - essenzialmente, una misura del grado in cui il gruppo avrebbe potuto coordinarsi per ottenere un risultato diverso. Hanno quindi creato un modello per ripartire l'incolpabilità del gruppo tra i singoli membri.

    "Se guardi il gruppo di pescatori, come gruppo sono responsabili – ovviamente, se non pescassero tutti ce ne sarebbe in abbondanza per il prossimo anno, " Halpern ha detto. "La misura in cui i pescatori sono responsabili è la misura in cui potrebbero coordinarsi per ottenere un risultato diverso".

    I ricercatori hanno catturato questo misurando la capacità dei membri del gruppo di lavorare insieme per cambiare il risultato, tenendo conto del costo per farlo. Il costo è un fattore critico nella colpevolezza:qualcuno che fa cadere un vaso costoso mentre scappa da un leone è meno biasimevole di qualcuno che semplicemente non sta prestando attenzione. Se il tuo voto fa oscillare un'elezione, sei meno colpevole se qualcuno minaccia di ucciderti a meno che tu non voti in un certo modo.

    Nel lavoro futuro, Halpern ha detto che spera di testare il modello chiedendo alla gente, tramite crowdsourcing, attribuire colpe in vari scenari, e confrontando le loro opinioni con i risultati numerici.

    Quando si tratta di auto a guida autonoma, sviluppatori o responsabili politici potrebbero considerare le proprie definizioni di costo durante la creazione dei loro algoritmi, ha detto Halpern. Per esempio, se un governo decide che nessun grado di rischio è accettabile, un'auto sarebbe progettata per non sorpassare mai un'altra auto, poiché ciò può aumentare la possibilità di un incidente.

    Sebbene possa essere difficile determinare in che modo gli algoritmi di apprendimento automatico prendono decisioni, potrebbe essere possibile sviluppare algoritmi più trasparenti che permettano una più facile valutazione della colpevolezza.

    "Il vantaggio del nostro framework è che ti dà un modo formale di pensare a queste cose e modellarle, e ti costringe a essere esplicito sulle tue ipotesi e su come stai definendo i costi, "Ha detto Halpern. "La nostra definizione sta cercando di essere quantitativa, perché piaccia o no, devi fare dei compromessi, e questa definizione ti costringe a pensarci. È uno strumento per aiutare le persone a pensare ai compromessi senza dire loro quali dovrebbero essere i compromessi".


    © Scienza https://it.scienceaq.com