• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • L'intelligenza artificiale merita le stesse tutele etiche che diamo agli animali?

    Credito:CC0 Dominio Pubblico

    Nello spettacolo HBO Westworld , robot progettati per mostrare emozioni, Sentire dolore, e muori come gli umani popolano un vasto parco a tema in stile occidentale per ospiti facoltosi che pagano per mettere in atto le loro fantasie. Man mano che lo spettacolo procede, e i robot imparano di più sul mondo in cui vivono, iniziano a rendersi conto che sono i giocattoli della persona che li ha programmati.

    Gli spettatori potrebbero concludere che gli esseri umani devono permettersi robot con un'intelligenza artificiale così sofisticata, come quelli in Westworld — le stesse tutele etiche che ci concediamo l'un l'altro. Ma Westworld è un programma televisivo di fantasia. E i robot con la sofisticatezza cognitiva degli umani non esistono.

    Eppure i progressi nell'intelligenza artificiale da parte delle università e delle aziende tecnologiche significano che siamo più vicini che mai alla creazione di macchine "approssimativamente sofisticate dal punto di vista cognitivo come topi o cani, "dice John Basl, che è un assistente professore di filosofia alla Northeastern University. Sostiene che queste macchine meritano le stesse tutele etiche che diamo agli animali coinvolti nella ricerca.

    "Lo scenario da incubo è che creiamo una mente macchina, e senza saperlo, fargli qualcosa di doloroso, "Dice Basl. "Noi creiamo un essere cosciente e poi lo facciamo soffrire".

    I comitati per la cura e l'uso degli animali esaminano attentamente la ricerca scientifica per garantire che gli animali non debbano soffrire indebitamente, e gli standard sono ancora più elevati per la ricerca che coinvolge le cellule staminali umane, dice Basilea.

    Man mano che scienziati e ingegneri si avvicinano alla creazione di macchine con intelligenza artificiale consapevoli, la comunità scientifica ha bisogno di costruire un quadro simile per proteggere queste macchine intelligenti dalla sofferenza e dal dolore, pure, dice Basilea.

    "Di solito aspettiamo di avere una catastrofe etica, e quindi creare regole in seguito per evitare che accada di nuovo, " dice Basl. "Stiamo dicendo che dobbiamo iniziare a pensarci adesso, prima di avere una catastrofe".

    Basl e il suo collega dell'Università della California, lungo il fiume, proporre la creazione di comitati di sorveglianza, composti da scienziati cognitivi, progettisti di intelligenza artificiale, filosofi, ed etici, per valutare attentamente la ricerca che coinvolge l'intelligenza artificiale. E dicono che è probabile che tali comitati giudichino ammissibile tutta l'attuale ricerca sull'intelligenza artificiale.

    Ma al centro di tutto c'è una domanda filosofica:come sapremo quando avremo creato una macchina in grado di provare gioia e sofferenza, soprattutto se quella macchina non riesce a comunicarci quei sentimenti?

    Non c'è una risposta facile a questa domanda, Basilea dice, in parte perché gli scienziati non sono d'accordo su cosa sia effettivamente la coscienza.

    Alcune persone hanno una visione "liberale" della coscienza, dice Basilea. Credono che tutto ciò che è necessario per l'esistenza della coscienza sia "l'elaborazione delle informazioni ben organizzata, " e un mezzo con cui prestare attenzione e pianificare a lungo termine. Persone che hanno opinioni più "conservatrici", lui dice, richiedono che i robot abbiano caratteristiche biologiche specifiche come un cervello simile a quello di un mammifero.

    A questo punto, Basilea dice, non è chiaro quale vista potrebbe rivelarsi corretta, o se c'è un altro modo per definire la coscienza che non abbiamo ancora considerato. Ma, se usiamo la definizione più liberale di coscienza, gli scienziati potrebbero presto essere in grado di creare macchine intelligenti in grado di provare dolore e sofferenza, e che meritano tutele etiche, dice Basilea.

    "Potremmo essere molto lontani dalla creazione di un'IA consapevole, o potremmo essere potremmo essere vicini, " dice Basl. "Dovremmo essere preparati nel caso fossimo vicini."


    © Scienza https://it.scienceaq.com