Credito:CC0 Dominio Pubblico
La vita quotidiana durante una pandemia significa distanziamento sociale e ricerca di nuovi modi per connettersi a distanza con gli amici, famiglia e collaboratori. E mentre comunichiamo online e tramite SMS, l'intelligenza artificiale potrebbe svolgere un ruolo nel mantenere le nostre conversazioni sulla buona strada, secondo una nuova ricerca della Cornell University.
Gli umani che hanno conversazioni difficili hanno affermato di fidarsi dei sistemi di intelligenza artificiale - i suggerimenti di risposta "intelligenti" nei testi - più delle persone con cui stavano parlando, secondo un nuovo studio, "AI come zona di sgretolamento morale:gli effetti della comunicazione dell'IA mediata su attribuzione e fiducia, " pubblicato online sulla rivista Computer nel comportamento umano .
"Troviamo che quando le cose vanno male, le persone si assumono la responsabilità che altrimenti sarebbe stata assegnata al loro partner umano e ne designano una parte al sistema di intelligenza artificiale, " disse Jess Hohenstein, uno studente di dottorato nel campo della scienza dell'informazione e il primo autore del documento. "Questo introduce un potenziale per prendere l'intelligenza artificiale e usarla come mediatore nelle nostre conversazioni".
Per esempio, l'algoritmo potrebbe notare che le cose stanno andando a rotoli analizzando il linguaggio utilizzato, e poi suggerire strategie di risoluzione dei conflitti, ha detto Hohenstein.
Lo studio è stato un tentativo di esplorare la miriade di modi, sia sottili che significativi, in cui i sistemi di intelligenza artificiale come le risposte intelligenti stanno alterando il modo in cui gli esseri umani interagiscono. Scegliendo una risposta suggerita che non corrisponde esattamente a ciò che intendevi dire, ma ti fa risparmiare un po' di digitazione, potrebbe alterare radicalmente il corso delle tue conversazioni e delle tue relazioni, hanno detto i ricercatori.
"La comunicazione è fondamentale per il modo in cui formiamo le percezioni l'uno dell'altro, come formiamo e manteniamo le relazioni, o come siamo in grado di realizzare qualsiasi cosa lavorando insieme, " ha detto il co-autore Malte Jung, assistente professore di scienze dell'informazione e direttore del laboratorio Robots in Groups, che esplora come i robot alterano le dinamiche di gruppo.
"Questo studio rientra nell'agenda più ampia di comprendere come questi nuovi sistemi di intelligenza artificiale interferiscono con la nostra capacità di interagire, " ha detto Jung. "Spesso pensiamo a come la progettazione dei sistemi influenzi il modo in cui interagiamo con essi, ma meno studi si concentrano sulla questione di come le tecnologie che sviluppiamo influenzano il modo in cui le persone interagiscono tra loro".
Oltre a far luce su come le persone percepiscono e interagiscono con i computer, lo studio offre possibilità per migliorare la comunicazione umana, con una guida sottile e promemoria dell'IA.
Hohenstein e Jung hanno affermato di aver cercato di esplorare se l'intelligenza artificiale potesse funzionare come una "zona di deformazione morale", l'equivalente tecnologico della zona di deformazione di un'auto, progettato per deformarsi per assorbire l'impatto dell'urto.
"C'è un meccanismo fisico nella parte anteriore dell'auto che è progettato per assorbire la forza dell'impatto e assumersi la responsabilità di ridurre al minimo gli effetti dell'incidente, " Ha detto Hohenstein. "Qui vediamo che il sistema di intelligenza artificiale assorbe parte della responsabilità morale".