• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  science >> Scienza >  >> Altro
    Un metodo con radici nell'intelligenza artificiale scopre come gli esseri umani fanno scelte nei gruppi e nei social media

    Credito:CC0 Dominio Pubblico

    Le scelte che facciamo in contesti di grandi gruppi, come nei forum online e nei social media, potrebbero sembrarci abbastanza automatiche. Ma il nostro processo decisionale è più complicato di quanto sappiamo. Così, i ricercatori hanno lavorato per capire cosa c'è dietro questo processo apparentemente intuitivo.

    Ora, una nuova ricerca dell'Università di Washington ha scoperto che in grandi gruppi di membri essenzialmente anonimi, le persone fanno scelte basate su un modello della "mente del gruppo" e su una simulazione in evoluzione di come una scelta influenzerà quella mente teorizzata.

    Utilizzando un quadro matematico con radici nell'intelligenza artificiale e nella robotica, I ricercatori UW sono stati in grado di scoprire il processo per il modo in cui una persona fa le scelte nei gruppi. E, hanno anche scoperto di essere in grado di prevedere la scelta di una persona più spesso rispetto ai metodi descrittivi più tradizionali. I risultati sono stati pubblicati mercoledì, 27 novembre in Progressi scientifici .

    "I nostri risultati sono particolarmente interessanti alla luce del ruolo crescente dei social media nel dettare come gli esseri umani si comportano come membri di particolari gruppi, " ha detto l'autore senior Rajesh Rao, il professore CJ ed Elizabeth Hwang nella Paul G. Allen School of Computer Science &Engineering della UW e co-direttore del Center for Neurotechnology.

    "Nei forum online e nei gruppi di social media, le azioni combinate dei membri del gruppo anonimi possono influenzare la tua prossima azione, e viceversa, la tua stessa azione può cambiare il comportamento futuro dell'intero gruppo, " ha detto Rao.

    I ricercatori volevano scoprire quali meccanismi sono in gioco in contesti come questi.

    Nella carta, spiegano che il comportamento umano si basa sulle previsioni degli stati futuri dell'ambiente - una migliore ipotesi su ciò che potrebbe accadere - e il grado di incertezza su quell'ambiente aumenta "drasticamente" negli ambienti sociali. Per prevedere cosa potrebbe accadere quando è coinvolto un altro essere umano, una persona fa della mente dell'altro un modello, chiamata teoria della mente, e poi usa quel modello per simulare come le proprie azioni influenzeranno quell'altra "mente".

    Sebbene questo atto funzioni bene per le interazioni uno contro uno, la capacità di modellare le menti individuali in un grande gruppo è molto più difficile. La nuova ricerca suggerisce che gli esseri umani creano un modello medio di una "mente" rappresentativa del gruppo anche quando le identità degli altri non sono note.

    Per indagare le complessità che sorgono nel processo decisionale di gruppo, i ricercatori si sono concentrati sul "compito del dilemma del volontario, " in cui alcuni individui sopportano alcuni costi a beneficio dell'intero gruppo. Esempi del compito includono il dovere di guardia, donazione di sangue e fare un passo avanti per fermare un atto di violenza in un luogo pubblico, spiegano sul giornale.

    Per imitare questa situazione e studiare le risposte sia comportamentali che cerebrali, i ricercatori hanno sottoposto i soggetti a una risonanza magnetica, uno per uno, e li ha fatti giocare. Nel gioco, chiamato un gioco di beni pubblici, il contributo del soggetto a una pentola comune di denaro influenza gli altri e determina ciò che tutti nel gruppo riceveranno. Un soggetto può decidere di contribuire con un dollaro o decidere di "fare un giro libero", cioè non contribuire ad ottenere la ricompensa nella speranza che altri contribuiscano al piatto.

    Se i contributi totali superano un importo predeterminato, ognuno ottiene due dollari indietro. I soggetti hanno giocato decine di round con altri che non avevano mai incontrato. All'insaputa del soggetto, gli altri erano in realtà simulati da un computer che imitava i precedenti giocatori umani.

    "Possiamo quasi dare un'occhiata a una mente umana e analizzare il suo meccanismo computazionale sottostante per prendere decisioni collettive, " ha detto l'autore principale Koosha Khalvati, uno studente di dottorato alla Allen School. "Quando si interagisce con un gran numero di persone, abbiamo scoperto che gli esseri umani cercano di prevedere le future interazioni di gruppo sulla base di un modello dell'intenzione di un membro medio del gruppo. È importante sottolineare che sanno anche che le proprie azioni possono influenzare il gruppo. Per esempio, sono consapevoli che anche se sono anonimi per gli altri, il loro comportamento egoistico diminuirebbe la collaborazione nel gruppo nelle interazioni future e potrebbe portare a risultati indesiderati".

    Nel loro studio, i ricercatori sono stati in grado di assegnare variabili matematiche a queste azioni e creare i propri modelli informatici per prevedere quali decisioni la persona potrebbe prendere durante il gioco. Hanno scoperto che il loro modello prevede il comportamento umano in modo significativamente migliore rispetto ai modelli di apprendimento per rinforzo, ovvero quando un giocatore impara a contribuire in base a come il round precedente ha o non ha pagato indipendentemente dagli altri giocatori e approcci descrittivi più tradizionali.

    Dato che il modello fornisce una spiegazione quantitativa per il comportamento umano, Rao si chiedeva se potesse essere utile quando si costruivano macchine che interagiscono con gli umani.

    "Negli scenari in cui una macchina o un software interagisce con grandi gruppi di persone, i nostri risultati possono contenere alcune lezioni per l'IA, " ha detto. "Una macchina che simula la 'mente di un gruppo' e simula il modo in cui le sue azioni influenzano il gruppo può portare a un'IA più a misura d'uomo il cui comportamento è meglio allineato con i valori umani".


    © Scienza https://it.scienceaq.com