• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Macchine empatiche preferite dagli scettici ma potrebbero spaventare i credenti

    Credito:CC0 Dominio pubblico

    La maggior parte delle persone apprezzerebbe un chatbot che offra risposte simpatiche o empatiche, secondo un team di ricercatori, ma hanno aggiunto che la reazione può dipendere da quanto la persona sia a suo agio con l'idea di una macchina dei sentimenti.

    In uno studio, i ricercatori hanno riferito che le persone preferivano ricevere risposte simpatiche ed empatiche da un chatbot, una macchina programmata per simulare una conversazione, piuttosto che ricevere una risposta da una macchina senza emozioni, disse S. Shyam Sundar, James P. Jimirro Professore di Media Effects e co-direttore del Media Effects Research Laboratory. Le persone esprimono simpatia quando provano compassione per una persona, considerando che esprimono empatia quando in realtà provano le stesse emozioni dell'altra persona, disse Sundar.

    Poiché gli operatori sanitari cercano modi per ridurre i costi e migliorare il servizio, ha aggiunto che questi risultati potrebbero aiutare gli sviluppatori a creare tecnologie di conversazione che incoraggino le persone a condividere informazioni sui loro stati di salute fisica e mentale, Per esempio.

    "Sempre più, poiché abbiamo sempre più chatbot e più agenti conversazionali basati sull'intelligenza artificiale in mezzo a noi, " disse Sundar. "E, man mano che sempre più persone iniziano a rivolgersi al proprio oratore intelligente o chatbot su un forum sulla salute per un consiglio, o per il supporto sociale ed emotivo, la domanda diventa:fino a che punto questi chatbot e altoparlanti intelligenti dovrebbero esprimere emozioni simili a quelle umane?"

    Mentre le macchine oggi non possono veramente provare né simpatia né empatia, gli sviluppatori potrebbero programmare questi segnali nell'attuale tecnologia di chatbot e assistente vocale, secondo i ricercatori che riportano i loro risultati nell'attuale numero di Cyberpsicologia, Comportamento e social network .

    Però, i chatbot possono diventare troppo personali per alcune persone, disse Bingjie Liu, un dottorando in comunicazioni di massa, che ha lavorato con Sundar allo studio. Ha detto che i partecipanti allo studio che erano diffidenti nei confronti delle macchine coscienti hanno indicato di essere rimasti colpiti dai chatbot programmati per fornire dichiarazioni di simpatia ed empatia.

    "La maggior parte delle persone nel nostro campione non credeva davvero nell'emozione della macchina, così, nella nostra interpretazione, hanno preso quelle espressioni di empatia e simpatia come cortesie, " ha detto Liu. "Quando abbiamo guardato le persone che hanno convinzioni diverse, però, abbiamo scoperto che le persone che pensano sia possibile che le macchine possano provare emozioni hanno avuto reazioni negative a queste espressioni di simpatia ed empatia da parte dei chatbot".

    I ricercatori hanno reclutato 88 volontari da un'università e da Amazon Mechanical Turk, una piattaforma di attività online. Ai volontari è stato chiesto di interagire con uno dei quattro diversi chatbot di servizi sanitari online programmati per fornire risposte specifiche a una delle quattro condizioni stabilite dai ricercatori:simpatia, due diversi tipi di empatia - empatia cognitiva ed empatia affettiva - o, una condizione di controllo di sola consulenza.

    Nella versione simpatica, il chatbot ha risposto con una dichiarazione, come, "Mi dispiace sentire che." Il chatbot programmato per l'empatia cognitiva, che ha riconosciuto i sentimenti dell'utente, potrebbe dire, "Questo problema può essere piuttosto inquietante." Un chatbot che esprimesse empatia affettiva potrebbe rispondere con una frase che mostrasse alla macchina di capire come e perché un utente si sentiva in quel modo, come, "Capisco la tua ansia per la situazione."

    I ricercatori hanno affermato che l'empatia affettiva e la simpatia hanno funzionato meglio.

    "Abbiamo scoperto che l'empatia cognitiva, in cui la risposta è in qualche modo distaccata e si avvicina al problema da un pensiero, ma in modo quasi antisettico - non ha funzionato del tutto, "disse Sunda." Certo, chatbot e robot lo fanno abbastanza bene, ma questo è anche lo stereotipo delle macchine. E non sembra essere altrettanto efficace. Quello che sembra funzionare meglio è l'empatia affettiva, o un'espressione di simpatia."

    In uno studio precedente, i ricercatori hanno chiesto ai partecipanti di leggere semplicemente il copione della conversazione tra un soggetto umano e una macchina. Hanno trovato effetti simili sull'uso della simpatia e dell'empatia nei messaggi.

    I ricercatori hanno affermato che la ricerca futura potrebbe esaminare come le interazioni simpatiche ed empatiche funzionano per diversi problemi al di là della salute e della sessualità, oltre a indagare su come si sentono le persone se macchine e robot simili all'uomo forniscono questi tipi di risposte.

    "Vogliamo vedere se questo è un modello coerente nel modo in cui gli umani reagiscono alle emozioni della macchina, " disse Liù.


    © Scienza https://it.scienceaq.com