Creare un futuro luminoso per tutti richiede più umanità piuttosto che meno. Soprattutto nel caso dei robot.
Termini come "IA" e "apprendimento automatico" stanno lentamente diventando parte del nostro mondo quotidiano. Dai documenti di ricerca al tuo feed di notizie, è probabile che tu abbia visto questi termini apparire più spesso negli ultimi anni.
Mentre queste idee stanno diventando più mainstream, iniziano a sollevare antiche questioni filosofiche a cui dobbiamo ancora rispondere. Domande come "Cosa significa essere umani?" o "Come si quantifica il danno?"
Per alcune applicazioni di IA, rispondere a queste domande secolari è fondamentale. Nei casi in cui sono coinvolti dei rischi, come auto senza conducente, avere una risposta può essere una questione di vita o di morte.
Etica dei robot
Queste domande non vengono ignorate mentre continua la spinta verso l'automazione. I ricercatori di tutto il mondo hanno cercato di capire come rispondere a queste domande.
Uno di questi ricercatori è Anna Sawyer, chi sta scrivendo il suo dottorato di ricerca sull'etica dei robot presso la University of Western Australia.
Anna dice che riguarda il modo in cui le macchine prendono decisioni con risultati seri e le strutture che dovremmo avere in atto per guidare tali decisioni.
Il lavoro di Anna l'ha vista consigliare il team dietro io sono madre , un film di fantascienza di produzione australiana che esplora alcuni di questi problemi.
Umani contro robot
Una parte fondamentale dell'etica dei robot è la differenza tra il processo decisionale umano e quello robotico.
In caso di tentativo di evitare un incidente, gli esseri umani prendono decisioni reattive con tempo e informazioni limitati. Ma i robot possono fare calcoli, decisioni proattive, potenzialmente con maggiori informazioni.
Ma ecco il trucco:dobbiamo decidere come i robot prendono queste decisioni. E ci sta costringendo a prendere alcune decisioni molto scomode nel processo.
Come decidere tra un'auto con due bambini e un genitore che colpisce uno scuolabus pieno di bambini o sbatte contro un muro per evitare l'autobus.
O decidere di salvare un passeggero più giovane a spese di una persona anziana che ha meno vita da vivere.
Porta anche a una discussione sulla riduzione del danno. Quando la riduzione va troppo lontano? O un esempio fornito da Anna:vorremmo evitare un dito del piede mozzato al costo di un'opera d'arte inestimabile?
Questo dilemma è al centro della discussione sull'etica dei robot.
Big data in soccorso?
Potresti pensare che la soluzione risieda in più dati, ma può complicare ulteriormente le cose.
Pensa ai dati personali che Google o Apple potrebbero avere su di te dal tuo telefono e dall'utilizzo dei social media. Ora considera che stanno entrando nel business delle auto senza conducente.
Anna dice che questi dati hanno il potenziale per essere usati per prendere decisioni in situazioni di vita o di morte come un incidente d'auto.
Tornando alla scelta tra sacrificare una persona anziana o una più giovane, cosa accadrebbe se la persona anziana avesse un premio Nobel per la pace? E il più giovane aveva precedenti penali violenti?
"Questo cambia, e dovrebbe cambiare, il modo in cui si comporta il veicolo?" chiede Anna. "Se lo fa, come lo programmiamo poi?"
Il futuro
Non abbiamo ancora le risposte, quindi come insegniamo a un robot a rispondere?
Come molte questioni etiche, si tratta di un vecchio detto.
"Solo perché possiamo farlo non significa che dovremmo farlo, "dice Anna.
"Ma se vogliamo farlo, dovremmo assicurarci che quante più persone possibili siano coinvolte in quella conversazione".
Spesso dimentichiamo che il futuro, per definizione, è sempre ancora da scrivere. Ma se la tecnologia continua in questa direzione, potremmo non avere molto tempo per risolverlo.
Questo articolo è apparso per la prima volta su Particella, un sito web di notizie scientifiche con sede a Scitech, Perth, Australia. Leggi l'articolo originale.