Credito:CC0 Dominio Pubblico
La professoressa di psicologia Michelle Drouin voleva sapere come reagirebbero le persone se un chatbot potesse emulare un umano.
Quindi lei e i suoi colleghi ricercatori hanno diviso 350 studenti universitari in tre gruppi. A un gruppo è stato detto che avrebbero interagito con un bot. A un altro è stato detto che era una persona reale. E l'ultimo è stato informato solo dopo l'interazione che stavano comunicando con un algoritmo.
I primi due gruppi erano quasi ugualmente contenti dell'esperienza. Ma l'ultimo gruppo non lo era.
"Si sentivano inquietanti al riguardo, " ha detto Drouin della Purdue University Fort Wayne. "Pensavano di essere stati ingannati."
È una reazione a cui le aziende della Silicon Valley potrebbero voler prestare molta attenzione mentre continuano a spingere i confini dell'intelligenza artificiale per creare assistenti virtuali sempre più realistici.
Martedì, Google ha presentato un assistente in grado di effettuare chiamate per fissare appuntamenti mentre parla con una voce umana quasi impeccabile piena di "ums" e "ahs". In nessun momento della presentazione il software di Google ha rivelato che non è umano, scatenando un dibattito su etica e consenso.
Di giovedì, Google ha invertito la rotta dicendo esplicitamente che il servizio, noto come Google Duplex, includerebbe una rivelazione che non è una persona.
"Comprendiamo e apprezziamo la discussione su Google Duplex, come abbiamo detto fin dall'inizio, la trasparenza nella tecnologia è importante, " ha detto un portavoce dell'azienda. "Stiamo progettando questa funzione con la divulgazione integrata, e faremo in modo che il sistema sia adeguatamente identificato".
La preoccupazione che le persone vengano ingannate dalla nuova funzionalità di Google sottolinea l'urgenza per la società di determinare che tipo di relazione desidera con i suoi aiuti artificiali mentre le aziende tecnologiche si avvicinano ad attraversare la cosiddetta valle perturbante. Questo è un termine usato per descrivere il divario tra un robot o un software che ha abbastanza imperfezioni da suscitare scetticismo e un altro che è indistinguibile da un essere umano.
Chiederemo di sapere quando stiamo parlando con un bot? O accetteremo che finiremo per conversare inconsapevolmente con algoritmi? Li concederemo con la stessa gentilezza ed empatia che esigiamo l'uno dall'altro? O li vediamo semplicemente come strumenti, indegno dei valori che uniscono la società civile? Queste sono domande di etica, sviluppatori e designer sono perplessi. Il modo in cui rispondiamo potrebbe avere implicazioni di vasta portata sul modo in cui gli umani si trattano a vicenda.
"Ci cambierà, " disse Pamela Pavliscak, professore al Pratt Institute e fondatore di Change Sciences, una società di consulenza specializzata nella connessione emotiva che le persone hanno con la tecnologia. "Progettiamo tecnologia e tecnologia, a sua volta, ci disegna. Sarebbe piuttosto ingenuo pensare che rimarremo gli stessi".
Utilizzando un paio di telefonate registrate, L'amministratore delegato di Google Sundar Pichai ha dimostrato questa settimana ai partecipanti alla conferenza degli sviluppatori dell'azienda come il suo assistente virtuale potrebbe chiamare e prenotare un appuntamento dal parrucchiere e provare a prenotare un tavolo in un ristorante.
"Mm-hmm, "dice con voce femminile naturale l'assistente surrogato quando l'impiegata del salone gli chiede di aspettare un momento.
L'assistente negozia quindi orari alternativi per l'appuntamento, lanciando un "um" per buona misura. Non c'è alcuna indicazione che l'operatore del salone abbia idea che la voce dall'altra parte sia generata dal computer.
Lo stesso vale per un impiegato di un ristorante che parla con un assistente virtuale maschio, che usa espressioni colloquiali come "Oh, Ho capito" per esprimere comprensione.
La volontà di Google di rivelare che Duplex non è una persona reale potrebbe spingere altre aziende a fare lo stesso. Ma gli americani, che sono già abituati alle chiamate automatiche e ai menu di chiamata automatizzati, potrebbero comunque ritrovarsi un giorno a chiedersi se la voce dall'altra parte è reale.
Pichai ha affermato che il servizio potrebbe essere un vantaggio per le aziende eliminando un'altra barriera per i clienti, che potrebbero non avere il tempo di fare tali chiamate. Tutto si adatta perfettamente al nuovo slogan dell'azienda, "Fai fare a Google, " che spinge i consumatori a sfruttare l'assistente dai loro telefoni, altoparlanti intelligenti, macchine, TV e computer portatili.
Perché nessuno dimentichi, i compiti più umili che le persone affidano a Google, più l'azienda conosce le loro abitudini. Ciò ha due scopi:consente a Google di fornire ai consumatori risultati di ricerca migliori, e consente agli inserzionisti di indirizzare il pubblico in modo più preciso. E facendo sembrare reale un assistente virtuale, gli utenti abbassano la guardia, fornendo a Google dati ancora più preziosi.
Questo di per sé preoccupa i sostenitori della privacy. Un assistente dal suono autentico convincerà gli utenti a rivelare i loro dettagli più privati a un'azienda che lo scorso anno ha accumulato 95 miliardi di dollari di entrate pubblicitarie? E se l'assistente chiama un medico? Google ora conosce la storia della salute di qualcuno?
È qualcosa che Google dovrà affrontare date le crescenti preoccupazioni odierne sulla privacy dopo lo scandalo Cambridge Analytica di Facebook. Ma gli esperti di etica affermano che le preoccupazioni maggiori sono le conseguenze indesiderate di un mondo sempre più invaso da bot e servizi automatizzati al posto della genuina interazione umana.
"Il motivo per cui questo può andare di lato è perché la comunicazione e le relazioni umane si basano sulla reciprocità, "ha detto David Ryan Polgar, un etico della tecnologia. "E se passassi il tempo pensando a qualcuno e scrivendogli ma l'altra persona no? Non stanno facendo lo stesso sforzo ma vogliono comunque il beneficio di una relazione più profonda".
Di conseguenza, Egli ha detto, la comunicazione diventa a buon mercato.
"Diventa transazionale, solo sulle parole e non sul significato, "disse Polgar, che pensa che Google e altri sviluppatori di intelligenza artificiale abbiano la responsabilità etica di rivelare che i loro assistenti non sono umani.
Dennis Mortensen, amministratore delegato e fondatore della società di assistenti virtuali di intelligenza artificiale x.ai, ha detto che teme che le persone alla fine stabiliranno che è una perdita di tempo essere gentili gli uni con gli altri se una quantità crescente di interazione viene automatizzata. Ma ha speranza che non si avveri.
"Puoi progettare un buon comportamento, " said Mortensen. He cited Google's announcement this week that it will add a feature to its virtual assistant that encourages children to say "please" and "thank you." Amazon has a similar program for its assistant.
Mortensen, whose company solely helps users schedule meetings, said he's also seen polite responses to his virtual assistants, Amy and Andrew. Of the hundreds of thousands of meetings x.ai schedules each month, about 11 percent of users reply to the assistants just to express gratitude—even though Mortensen discloses that the service is AI.
Drouin, the psychology professor at Purdue University Fort Wayne, believes people are willing to accept algorithmic relationships if they are upfront. She says AI has unfairly gotten a bad rap from popular culture. She thinks the technology can eventually succeed in places humans can't, like delivering comfort to people suffering from alienation and loneliness.
"There's a lot of people who don't have rich and plentiful human relationships, " she said. "What options do they have? If we can advance AI we can fill a need for these people. The movement toward more human-like forms is allowing people to feel more connected."
©2018 Los Angeles Times
Distribuito da Tribune Content Agency, LLC.