• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Attento a come tratti l'IA di oggi:potrebbe vendicarsi in futuro

    Potrebbe non piacerci il modo in cui l'IA futura ci risponde. Credito:Shutterstock/Mykola Holyutyak

    I sistemi di intelligenza artificiale (AI) stanno diventando sempre più simili a noi. Puoi chiedere a Google Home di spegnere le luci della tua camera da letto, per quanto potresti chiedere al tuo partner umano.

    Quando invii richieste di messaggi ad Amazon online, a volte non è chiaro se ti viene risposto da un essere umano o dalla tecnologia chatbot dell'azienda.

    C'è chiaramente un mercato per macchine con capacità psicologiche umane. Ma dovremmo dedicare un pensiero a ciò che potremmo inavvertitamente creare.

    E se rendessimo l'IA così brava a essere umana che il trattamento che ne facciamo può farla soffrire? Potrebbe sentirsi in diritto di vendicarsi di noi.

    Macchine che "sentono"

    Con le capacità psicologiche umane può venire la senzienza. I filosofi intendono la sensibilità come la capacità di soffrire e di provare piacere.

    E gli esseri senzienti possono essere danneggiati. È una questione sollevata dal filosofo australiano Peter Singer nel suo libro del 1975 Animal Liberation, che ha chiesto come dovremmo trattare gli animali non umani. Ha scritto:"Se un essere soffre, non può esserci alcuna giustificazione morale per rifiutarsi di prendere in considerazione quella sofferenza. Non importa quale sia la natura dell'essere, il principio di uguaglianza richiede che la sua sofferenza sia contata allo stesso modo della sofferenza simile – per quanto si possono fare raffronti approssimativi – di qualsiasi altro essere”.

    Singer ha dedicato una carriera a parlare a favore degli animali, che sono esseri senzienti incapaci di parlare per se stessi.

    Parlando per AI

    I ricercatori nell'IA stanno cercando di creare un'AGI o intelligenza artificiale generale, una macchina in grado di svolgere qualsiasi compito intellettuale svolto da un essere umano. L'intelligenza artificiale può già imparare, ma AGI sarà in grado di svolgere compiti oltre quello per cui è programmato.

    Gli esperti non sono d'accordo su quanto sia lontano un AGI. L'inventore tecnologico statunitense Ray Kurzweil si aspetta presto un AGI, forse 2029. Altri pensano che potremmo dover aspettare un secolo.

    Ma se siamo interessati a trattare bene gli esseri senzienti, potremmo non dover aspettare fino all'arrivo di un AGI.

    Uno dei punti di Singer è che molti esseri senzienti sono molto al di sotto dell'intelligenza umana. Con tale argomento, L'intelligenza artificiale non deve essere intelligente quanto un essere umano per essere senziente.

    Il problema è che non esiste un test diretto per la sensibilità.

    Inviare una missione con equipaggio umano su Marte è molto impegnativo, ma almeno lo sapremo quando l'avremo fatto.

    Fare una macchina con i sentimenti è una sfida in un modo più filosoficamente sconcertante. Poiché ci mancano criteri chiari per la sensibilità delle macchine, non possiamo essere sicuri quando l'abbiamo fatto.

    Guarda alla fantascienza

    L'ambiguità della senzienza delle macchine è una caratteristica di diverse presentazioni di fantascienza sull'intelligenza artificiale.

    Per esempio, Niska è un robot umanoide, un sintetizzatore, prestando servizio come prostituta nella serie TV Humans. Ci viene detto che, a differenza della maggior parte dei sintetizzatori, lei è senziente.

    Quando Niska viene interrogata sul motivo per cui ha ucciso un cliente, spiega:"Voleva essere rude".

    L'avvocato umano Laura Hawkins risponde:"Ma, è sbagliato se lui non pensava che tu potessi sentire? … Non è meglio che eserciti le sue fantasie con te in un bordello piuttosto che sfogarle su qualcuno che può davvero provare sentimenti?"

    Dal punto di vista umano, si potrebbe pensare che l'aggressione sessuale diretta contro una macchina non senziente sia un crimine senza vittime.

    Ma che dire di un robot sessuale che ha acquisito senzienza? Niska continua spiegando che era spaventata dal comportamento del cliente nei suoi confronti. "E mi dispiace non poter piangere o... sanguinare o torcermi le mani così lo sai. Ma te lo sto dicendo, Ero."

    Humans non è l'unica storia di fantascienza ad avvertire di attacchi di vendetta da parte di macchine progettate per essere sfruttate dagli umani per piacere e dolore.

    Nel remake televisivo di Westworld, gli umani entrano in un parco a tema e uccidono gli host Android con l'abbandono dei massacri di Xbox, fiduciosi che le loro vittime non abbiano rancore perché non possono provare alcun sentimento.

    Ma di nuovo qui, alcuni host hanno segretamente acquisito senzienza e ottengono vendetta dai loro aguzzini umani.

    Siamo solo umani

    È solo fantascienza? Le macchine senzienti sono molto lontane? Forse. Forse no.

    Ma le cattive abitudini possono richiedere del tempo per disimparare. Noi – o meglio gli animali – stiamo ancora soffrendo la sbornia filosofica della terribile idea del pensatore francese del XVII secolo René Descartes che gli animali siano automi senza cervello – privi di senzienza.

    Se vogliamo costruire macchine con capacità psicologiche umane, dovremmo prepararci alla possibilità che diventino senzienti. Come reagiranno allora al nostro comportamento nei loro confronti?

    Forse il nostro comportamento nei confronti dell'IA non senziente oggi dovrebbe essere guidato da come ci aspetteremmo che le persone si comportino nei confronti di qualsiasi futura IA senziente che possa sentire, che può soffrire. Come ci aspetteremmo che quella futura macchina senziente reagisse nei nostri confronti?

    Questa potrebbe essere la grande differenza tra le macchine e gli animali che Singer difende. Gli animali non possono vendicarsi. Ma le macchine senzienti potrebbero farlo.

    Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com