• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • I Deadbot possono parlare per te dopo la tua morte. È etico?

    Credito:Pixabay/CC0 di dominio pubblico

    I sistemi di apprendimento automatico si fanno sempre più strada nella nostra vita quotidiana, sfidando i nostri valori morali e sociali e le regole che li governano. In questi giorni, gli assistenti virtuali minacciano la privacy della casa; i consiglieri di notizie modellano il modo in cui comprendiamo il mondo; i sistemi di previsione del rischio puntano gli assistenti sociali sui quali proteggere i bambini dagli abusi; mentre gli strumenti di assunzione basati sui dati classificano anche le tue possibilità di ottenere un lavoro. Tuttavia, l'etica dell'apprendimento automatico rimane confusa per molti.

    Cercando articoli sull'argomento per i giovani ingegneri che frequentano il corso di Ethics and Information and Communications Technology all'UCLouvain, in Belgio, sono rimasto particolarmente colpito dal caso di Joshua Barbeau, un uomo di 33 anni che ha utilizzato un sito web chiamato Project December per crea un robot conversazionale, un chatbot, che simuli la conversazione con la sua fidanzata defunta, Jessica.

    Robot conversazionali che imitano i morti

    Conosciuto come deadbot, questo tipo di chatbot ha permesso a Barbeau di scambiare messaggi di testo con una "Jessica" artificiale. Nonostante la natura eticamente controversa del caso, raramente ho trovato materiale che andasse oltre il mero aspetto fattuale e analizzato il caso attraverso una lente normativa esplicita:perché sarebbe giusto o sbagliato, eticamente desiderabile o riprovevole, sviluppare un deadbot?

    Prima di affrontare queste domande, mettiamo le cose nel contesto:Project December è stato creato dallo sviluppatore di giochi Jason Rohrer per consentire alle persone di personalizzare i chatbot con la personalità con cui volevano interagire, a condizione che lo pagassero. Il progetto è stato realizzato attingendo a un'API di GPT-3, un modello di linguaggio per la generazione di testo della società di ricerca sull'intelligenza artificiale OpenAI. Il caso di Barbeau ha aperto una spaccatura tra Rohrer e OpenAI perché le linee guida dell'azienda vietano esplicitamente l'uso di GPT-3 per scopi sessuali, amorosi, autolesionistici o bullismo.

    Definendo la posizione di OpenAI come iper-morale e sostenendo che persone come Barbeau erano "adulti consenzienti", Rohrer ha chiuso la versione GPT-3 del Progetto dicembre.

    Anche se tutti possiamo avere intuizioni sul fatto che sia giusto o sbagliato sviluppare un deadbot di apprendimento automatico, spiegarne le implicazioni difficilmente è un compito facile. Per questo è importante affrontare le questioni etiche sollevate dal caso, passo dopo passo.

    Il consenso di Barbeau è sufficiente per sviluppare il deadbot di Jessica?

    Dal momento che Jessica, era una persona reale (sebbene morta), Barbeau acconsente alla creazione di un robot morto che la imitasse sembra insufficiente. Anche quando muoiono, le persone non sono semplici cose con cui gli altri possono fare ciò che vogliono. Per questo le nostre società considerano sbagliato profanare o essere irrispettosi della memoria dei morti. In altre parole, abbiamo determinati obblighi morali nei confronti dei morti, nella misura in cui la morte non implica necessariamente che le persone cessino di esistere in modo moralmente rilevante.

    Allo stesso modo, il dibattito è aperto sull'opportunità di proteggere i diritti fondamentali dei morti (ad esempio, privacy e dati personali). Lo sviluppo di un deadbot che replichi la personalità di qualcuno richiede grandi quantità di informazioni personali come i dati dei social network (vedi cosa propongono Microsoft o Eternime) che hanno dimostrato di rivelare tratti altamente sensibili.

    Se accettiamo che non è etico utilizzare i dati delle persone senza il loro consenso mentre sono in vita, perché dovrebbe essere etico farlo dopo la loro morte? In questo senso, quando si sviluppa un deadbot, sembra ragionevole richiedere il consenso di colui la cui personalità è rispecchiata, in questo caso Jessica.

    Quando la persona imitata dà il via libera

    Quindi, la seconda domanda è:basterebbe il consenso di Jessica per considerare etica la creazione del suo deadbot? E se le stesse degradando la memoria?

    I limiti del consenso sono, infatti, una questione controversa. Prendiamo come esempio paradigmatico il "Cannibale di Rotenburg", condannato all'ergastolo nonostante la sua vittima avesse acconsentito a farsi mangiare. A questo proposito, è stato affermato che non è etico acconsentire a cose che possono essere dannose per noi stessi, siano esse fisicamente (vendere i propri organi vitali) o astrattamente (alienare i propri diritti), purché una buona società dovrebbe incoraggiare tutti i suoi membri a vivere meglio e più liberi (non necessariamente in senso paternalistico, alle condizioni imposte da qualcun altro, ma in modo democratico, alle condizioni del popolo).

    In quali termini specifici qualcosa potrebbe essere dannoso per i morti è una questione particolarmente complessa che non analizzerò completamente. Vale la pena notare, tuttavia, che anche se i morti non possono essere danneggiati o offesi allo stesso modo dei vivi, ciò non significa che siano invulnerabili alle cattive azioni, né che queste siano etiche. I morti possono subire danni al loro onore, reputazione o dignità (ad esempio, campagne diffamatorie postume) e la mancanza di rispetto verso i morti danneggia anche le persone a loro vicine. Inoltre, comportarsi male verso i morti ci porta a una società più ingiusta e meno rispettosa della dignità delle persone in generale.

    Infine, data la malleabilità e l'imprevedibilità dei sistemi di apprendimento automatico, c'è il rischio che il consenso fornito dalla persona imitata (mentre è in vita) non significhi molto di più di un assegno in bianco sui suoi potenziali percorsi.

    Tenendo conto di tutto ciò, sembra ragionevole concludere che se lo sviluppo o l'uso del deadbot non corrisponde a ciò che la persona imitata ha accettato, il suo consenso dovrebbe essere considerato non valido. Inoltre, se lede chiaramente e intenzionalmente la loro dignità, anche il loro consenso non dovrebbe essere sufficiente per considerarlo etico.

    Chi si assume la responsabilità?

    Una terza questione è se i sistemi di intelligenza artificiale dovrebbero aspirare a imitare qualsiasi tipo del comportamento umano (indipendentemente dal fatto che ciò sia possibile).

    Questa è stata una preoccupazione di vecchia data nel campo dell'IA ed è strettamente collegata alla controversia tra Rohrer e OpenAI. Dovremmo sviluppare sistemi artificiali capaci, ad esempio, di prendersi cura degli altri o di prendere decisioni politiche? Sembra che ci sia qualcosa in queste abilità che rende gli esseri umani diversi dagli altri animali e dalle macchine. Pertanto, è importante notare che la strumentalizzazione dell'IA verso fini tecno-risolutisti, come la sostituzione dei propri cari, può portare a una svalutazione di ciò che ci caratterizza come esseri umani.

    La quarta domanda etica è chi è responsabile dei risultati di un deadbot, specialmente nel caso di effetti dannosi.

    Immagina che il deadbot di Jessica abbia imparato autonomamente a comportarsi in un modo che sminuisse la sua memoria o danneggiò irreversibilmente la salute mentale di Barbeau. Chi si assumerebbe la responsabilità? Gli esperti di intelligenza artificiale rispondono a questa domanda scivolosa attraverso due approcci principali:primo, la responsabilità ricade su coloro che sono coinvolti nella progettazione e nello sviluppo del sistema, purché lo facciano in base ai loro interessi e visioni del mondo particolari; in secondo luogo, i sistemi di apprendimento automatico dipendono dal contesto, quindi le responsabilità morali dei loro risultati dovrebbero essere distribuite tra tutti gli agenti che interagiscono con loro.

    Mi metto più vicino alla prima posizione. In questo caso, poiché esiste un'esplicita co-creazione del deadbot che coinvolge OpenAI, Jason Rohrer e Joshua Barbeau, ritengo logico analizzare il livello di responsabilità di ciascuna parte.

    In primo luogo, sarebbe difficile responsabilizzare OpenAI dopo aver esplicitamente proibito di utilizzare il proprio sistema per scopi sessuali, amorosi, autolesionistici o bullismo.

    Sembra ragionevole attribuire un livello significativo di responsabilità morale a Rohrer perché egli:(a) ha progettato esplicitamente il sistema che ha permesso di creare il deadbot; (b) lo ha fatto senza anticipare misure per evitare potenziali esiti negativi; (c) era consapevole di non essere conforme alle linee guida di OpenAI; e (d) ne ha tratto profitto.

    E poiché Barbeau ha personalizzato il deadbot attingendo a caratteristiche particolari di Jessica, sembra legittimo ritenerlo corresponsabile nel caso in cui ne degradi la memoria.

    Etico, a determinate condizioni

    Quindi, tornando alla nostra prima domanda generale se sia etico sviluppare un deadbot di apprendimento automatico, potremmo dare una risposta affermativa a condizione che:

    • sia la persona imitata che quella che personalizza e interagisce con essa hanno dato il loro libero consenso a una descrizione il più dettagliata possibile del design, dello sviluppo e degli usi del sistema;
    • sono vietati gli sviluppi e gli usi che non si attengono a quanto la persona imitata ha acconsentito o che siano contrari alla sua dignità;
    • le persone coinvolte nel suo sviluppo e coloro che ne traggono profitto si assumono la responsabilità dei suoi potenziali esiti negativi. Sia in modo retroattivo, per tenere conto degli eventi accaduti, sia in prospettiva, per impedire attivamente che accadano in futuro.

    Questo caso esemplifica il motivo per cui l'etica dell'apprendimento automatico è importante. Illustra inoltre perché è essenziale aprire un dibattito pubblico che possa informare meglio i cittadini e aiutarci a sviluppare misure politiche per rendere i sistemi di IA più aperti, socialmente equi e conformi ai diritti fondamentali.

    © Scienza https://it.scienceaq.com