I personaggi virtuali potrebbero presto essere più intelligenti di noi. Michelangelo/Shutterstock
La maggior parte delle ricerche sull'etica dell'intelligenza artificiale (AI) riguarda il suo uso per armi, trasporti o profilazione. Sebbene i pericoli presentati da un carro armato autonomo e razzista non possano essere sottovalutati, c'è un altro aspetto in tutto questo. Che dire delle nostre responsabilità nei confronti delle IA che creiamo?
I giochi di ruolo online multigiocatore di massa (come World of Warcraft) sono realtà tascabili popolate principalmente da personaggi non giocanti. Al momento questi personaggi non sono particolarmente intelligenti, ma dategli 50 anni e lo saranno.
Scusate? 50 anni non saranno sufficienti? Prendi 500. Prendi 5.000.000. Abbiamo il resto dell'eternità per raggiungere questo obiettivo.
Vuoi computer delle dimensioni di un pianeta? Puoi averli. Vuoi computer fatti di tessuto cerebrale umano? Puoi averli. Alla fine, credo che lo faremo avere mondi virtuali contenenti personaggi intelligenti come noi, se non più intelligenti, e in pieno possesso del libero arbitrio. Quali saranno le nostre responsabilità nei confronti di questi esseri? Dopotutto saremo gli dei letterali delle realtà in cui dimorano, controllando la fisica dei loro mondi. Possiamo fare tutto ciò che ci piace per loro.
Quindi sapendo tutto questo... dovremmo?
Difficoltà etiche del libero arbitrio
Come ho esplorato nel mio recente libro, ogni volta che è coinvolto "dovrebbe", l'etica interviene e prende il sopravvento, anche per i videogiochi. La prima domanda da porsi è se i nostri personaggi dei giochi del futuro siano degni di essere considerati entità morali o semplicemente frammenti in un database. Se questi ultimi, non abbiamo bisogno di turbare la nostra coscienza con loro non più di quanto faremmo con i caratteri in un word processor.
La domanda è in realtà discutibile, però. Se creiamo i nostri personaggi per essere esseri liberi di pensiero, allora dobbiamo trattarli come se sono tali, indipendentemente da come potrebbero apparire a un osservatore esterno.
Stando così le cose, allora, possiamo spegnere i nostri mondi virtuali? Farlo potrebbe condannare miliardi di creature intelligenti alla non esistenza. Andrebbe comunque bene se salvassimo una copia del loro mondo nel momento in cui l'abbiamo terminato? La possibilità teorica che possiamo riattivare il loro mondo esattamente com'era significa che non lo siamo realmente uccidendoli? E se non disponiamo del software di gioco originale?
Possiamo legittimamente causare sofferenza a questi personaggi? Noi stessi implementiamo il concetto stesso, quindi questa non è tanto una domanda se sia giusto tormentarli quanto se tormentarli sia persino una cosa. Nelle società moderne, la posizione predefinita è che è immorale far soffrire gli individui che pensano liberamente a meno che non siano d'accordo o sia per salvare loro (o qualcun altro) da qualcosa di peggio. Non possiamo chiedere ai nostri personaggi di acconsentire a nascere in un mondo di sofferenza:non esisteranno quando creeremo il gioco.
Allora, che dire dell'alternativa "qualcosa di peggio"? Se possiedi il libero arbitrio, devi essere saggio, quindi devi essere tu stesso un essere morale. Ciò significa che devi essere sviluppato morale, quindi deve essere possibile che ti succedano cose brutte. Altrimenti, non avresti potuto riflettere su ciò che è giusto o sbagliato per sviluppare la tua morale. In altre parole, a meno che non accadano cose brutte, non c'è il libero arbitrio. Rimuovere il libero arbitrio da un essere equivale a distruggere l'essere che era prima, quindi sì, dobbiamo permettere la sofferenza o il concetto di carattere sapiente è un ossimoro.
Aldilà?
Accettando che i nostri personaggi del futuro sono esseri dal pensiero libero, dove si collocherebbero in una gerarchia di importanza? In generale, data una scelta diretta tra salvare un essere saggio (come un bambino) o uno semplicemente senziente (come un cane), le persone sceglierebbero il primo rispetto al secondo. Data una scelta simile tra salvare un cane vero o un santo virtuale, quale prevarrebbe?
Tieni presente che se i tuoi personaggi si percepiscono come esseri morali ma non li percepisci come tali, penseranno che sei un idiota. Nei panni di Alphinaud Leveilleur, un personaggio di Final Fantasy XIV , dice bene (spoiler:avendo appena scoperto che il suo mondo è stato creato dalle azioni di esseri che di conseguenza non lo considerano come propriamente vivo):"Noi definire il nostro valore, non le circostanze della nostra creazione!"
Lasceremo morire i nostri personaggi? È un lavoro extra per implementare il concetto. Se vivono per sempre, li rendiamo invulnerabili o semplicemente impediamo loro di morire? Dopotutto, la vita non sarebbe molto divertente dopo essere caduto in un frullatore. Se muoiono, li spostiamo nel paradiso dei giochi (o all'inferno) o semplicemente li cancelliamo?
Queste non sono le uniche domande che possiamo porre. Possiamo inserire delle idee nelle loro teste? Possiamo cambiare il loro mondo per scherzare con loro? Imponiamo loro la nostra morale o lasciamo che sviluppino la propria (con la quale potremmo non essere d'accordo)? Ce ne sono molti di più.
In definitiva, la domanda più grande è:dovremmo creare personaggi sapienti in primo luogo?
Ora avrai notato che ho posto molte domande qui. Forse ti starai chiedendo quali sono le risposte.
Bene, lo sono anch'io! Questo è il punto di questo esercizio. L'umanità non ha ancora un quadro etico per la creazione di realtà di cui siamo dei. Non esiste ancora alcun sistema di metaetica che ci aiuti. Dobbiamo risolverlo prima costruiamo mondi popolati da esseri dotati di libero arbitrio, tra 50, 500, 5.000.000 di anni da oggi o domani. Queste sono domande per te per rispondere.
Fai attenzione a come lo fai, però. Puoi creare un precedente.
Noi stessi siamo i personaggi non giocanti di Reality.