Talal Rahwan, professore associato di Informatica presso la NYU Abu Dhabi. Credito:NYU Abu Dhabi
I recenti progressi tecnologici nell'intelligenza artificiale hanno reso possibile per le macchine, o bot, passare per umani. Un team di ricercatori guidato da Talal Rahwan, professore associato di Informatica presso la NYU Abu Dhabi, condotto un esperimento per studiare come le persone interagiscono con i bot che credono essere umani, e come tali interazioni vengono influenzate una volta che i bot rivelano la loro identità. I ricercatori hanno scoperto che i robot sono più efficienti degli umani in determinate interazioni uomo-macchina, ma solo se gli è permesso di nascondere la loro natura non umana.
Nel loro articolo intitolato "Evidenze comportamentali per un compromesso trasparenza-efficienza nella cooperazione uomo-macchina" pubblicato su Intelligenza della macchina della natura , i ricercatori hanno presentato il loro esperimento in cui ai partecipanti è stato chiesto di giocare a un gioco di cooperazione con un associato umano o un associato bot. Questo gioco, chiamato il dilemma del prigioniero iterato, è stato progettato per catturare situazioni in cui ciascuna delle parti interagenti può agire egoisticamente nel tentativo di sfruttare l'altra, o agire in modo cooperativo nel tentativo di ottenere un risultato reciprocamente vantaggioso.
In modo cruciale, i ricercatori hanno fornito ad alcuni partecipanti informazioni errate sull'identità del loro associato. Ad alcuni partecipanti che hanno interagito con un essere umano è stato detto che stavano interagendo con un bot, e viceversa. Attraverso questo esperimento, i ricercatori sono stati in grado di determinare se le persone hanno pregiudizi nei confronti delle parti sociali che credono essere bot, e valutare il grado in cui tale pregiudizio, se esiste, influisce sull'efficienza dei bot che sono trasparenti sulla loro natura non umana.
I risultati hanno mostrato che i robot che si spacciavano per umani erano più efficienti nel persuadere il partner a collaborare nel gioco. Però, non appena la loro vera natura fu rivelata, i tassi di cooperazione sono diminuiti e la superiorità dei robot è stata negata.
"Sebbene vi sia un ampio consenso sul fatto che le macchine dovrebbero essere trasparenti su come prendono decisioni, è meno chiaro se dovrebbero essere trasparenti su chi sono, " ha detto Rawan.
"Tener conto di, Per esempio, Google duplex, un assistente vocale automatizzato in grado di generare un discorso simile a quello umano per effettuare telefonate e prenotare appuntamenti per conto del suo utente. Il discorso di Google Duplex è così realistico che la persona dall'altra parte del telefono potrebbe anche non rendersi conto che sta parlando con un bot. È etico sviluppare un sistema del genere? Se dovessimo vietare ai bot di passare per umani, e costringerli a essere trasparenti su chi sono? Se la risposta è "Sì", quindi i nostri risultati evidenziano la necessità di stabilire standard per il costo dell'efficienza che siamo disposti a pagare in cambio di tale trasparenza".