Credito:CC0 Dominio Pubblico
In un mercato online come Airbnb, i profili host possono fare la differenza tra una camera prenotata e una libera. troppo vivace, troppo lungo, troppi punti esclamativi? La lingua è fondamentale nella ricerca di fiducia e autenticità di un utente, fattori cruciali in qualsiasi scambio online.
Con così tanto in gioco, Gli host di Airbnb dovrebbero fare affidamento su un algoritmo per scrivere i loro profili per loro?
Dipende, secondo una nuova ricerca della Cornell e della Stanford University. Se tutti utilizzano profili generati algoritmicamente, gli utenti si fidano di loro. Però, se solo alcuni host scelgono di delegare le responsabilità di scrittura all'intelligenza artificiale, rischiano di essere diffidenti. I ricercatori hanno definito questo "effetto replicante" - un cenno al film "Blade Runner".
"I partecipanti erano alla ricerca di segnali che sembravano meccanici rispetto a un linguaggio che sembrava più umano ed emotivo, " disse Maurice Jakesch, uno studente di dottorato in scienze dell'informazione presso la Cornell Tech e autore principale di "Comunicazione mediata dall'intelligenza artificiale:come la percezione che il testo del profilo è stato scritto da AI influisce sull'affidabilità, " che sarà presentato alla Conferenza ACM sui fattori umani nei sistemi informatici, 4-9 maggio a Glasgow, Scozia.
"Avevano le loro teorie su come sarebbe stato un profilo generato dall'intelligenza artificiale, " ha detto Jakesch. "Se ci fossero gravi errori di ortografia in un profilo, direbbero che è più umano, mentre se il profilo di qualcuno sembrava sconnesso o insensato, pensavano che fosse AI."
L'intelligenza artificiale rivoluziona le tecnologie del linguaggio naturale e il modo in cui gli esseri umani interagiscono tra loro. Le persone sperimentano già alcune comunicazioni mediate dall'intelligenza artificiale:Gmail esegue la scansione del contenuto delle nostre e-mail in arrivo e genera suggerimenti, "risposte intelligenti" con un clic, " e una nuova generazione di ausili per la scrittura non solo corregge i nostri errori di ortografia, ma perfeziona il nostro stile di scrittura.
"Stiamo iniziando a vedere i primi casi di intelligenza artificiale che opera come mediatore tra gli umani, ma è una questione di:'Le persone lo vogliono?'", ha detto Jakesch. "Potremmo imbatterci in una situazione in cui la comunicazione mediata dall'intelligenza artificiale è così diffusa da diventare parte del modo in cui le persone valutano ciò che vedono online".
Nello studio, i ricercatori hanno cercato di esplorare se gli utenti si fidano di rappresentazioni ottimizzate o generate algoritmicamente, soprattutto nei mercati online. Il team ha condotto tre esperimenti, arruolando centinaia di partecipanti su Amazon Mechanical Turk per valutare reali, profili Airbnb generati dall'uomo. In alcuni casi, i partecipanti sono stati portati a credere che alcuni o tutti i profili fossero stati generati attraverso un sistema di intelligenza artificiale automatizzato. Ai partecipanti è stato quindi chiesto di assegnare a ciascun profilo un punteggio di affidabilità.
Quando gli è stato detto che stavano visualizzando tutti i profili generati dall'uomo o tutti generati dall'intelligenza artificiale, i partecipanti non sembravano fidarsi dell'uno più dell'altro. Hanno valutato i profili generati dall'uomo e dall'intelligenza artificiale all'incirca allo stesso modo.
Ma la situazione è cambiata quando i partecipanti sono stati informati che stavano visualizzando un insieme misto di profili. Lasciato decidere se i profili che stavano leggendo erano scritti da un umano o da un algoritmo, gli utenti diffidavano di quelli che credevano fossero generati dalla macchina.
"Più partecipanti credevano che un profilo fosse generato dall'intelligenza artificiale, meno tendevano a fidarsi dell'ospite, anche se i profili che hanno valutato sono stati scritti dagli host effettivi, " scrivono gli autori.
Cosa c'è di male nell'usare la comunicazione mediata dall'intelligenza artificiale? Come ha affermato un partecipante allo studio, I profili generati dall'intelligenza artificiale "possono essere utili ma anche un po' pigri. Il che mi fa dubitare di cos'altro saranno pigri".
Man mano che l'IA diventa più comune e potente, linee guida fondamentali, etica e pratica diventano vitali, hanno detto i ricercatori. I loro risultati suggeriscono che ci sono modi per progettare strumenti di comunicazione AI che migliorano la fiducia per gli utenti umani. Per i principianti, Jakesch ha detto, le aziende potrebbero aggiungere un emblema su tutti i testi prodotti da AI, come alcuni media già utilizzano sui contenuti creati da algoritmi. Vale la pena esplorare ora le linee guida e le norme di progettazione e politica per l'utilizzo della comunicazione mediata dall'intelligenza artificiale, Ha aggiunto.
"Il valore di queste tecnologie dipenderà da come sono progettate, come vengono comunicati alle persone e se siamo in grado di stabilire un ecosistema sano intorno a loro, " ha detto. "Viene con una serie di nuove domande etiche:è accettabile che il mio assistente algoritmico generi una versione più eloquente di me? Va bene che un algoritmo dica la buonanotte ai miei figli per mio conto? Queste sono domande che devono essere discusse".
Il documento è stato scritto insieme a Mor Naaman, professore associato di scienze dell'informazione presso il Jacobs Technion-Cornell Institute presso la Cornell Tech; Xiao Ma, uno studente di dottorato in scienze dell'informazione alla Cornell Tech; e Megan French e Jeffrey T. Hancock di Stanford.