Credito:CC0 Dominio Pubblico
Internet offre il potenziale per un dialogo e una cooperazione costruttivi, ma le conversazioni online troppo spesso degenerano in attacchi personali. Nella speranza che questi attacchi possano essere evitati, I ricercatori della Cornell hanno creato un modello per prevedere quali conversazioni civili potrebbero prendere una piega tossica.
Dopo aver analizzato centinaia di scambi su Wikipedia, i ricercatori hanno sviluppato un programma per computer che esegue la scansione di bandiere rosse, come ripetute, interrogatorio diretto e uso della parola "tu" nei primi due post – per prevedere quali conversazioni inizialmente civili sarebbero andate male.
I primi scambi che includevano saluti, espressioni di gratitudine, siepi come "sembra, " e le parole "io" e "noi" avevano maggiori probabilità di rimanere civili, lo studio ha trovato.
"Ci sono milioni di queste discussioni, e non puoi controllarli tutti dal vivo. Questo sistema potrebbe aiutare i moderatori umani a dirigere meglio la loro attenzione, " ha detto Cristian Danescu-Niculescu-Mizil, assistente professore di scienze dell'informazione e coautore dell'articolo "Conversations Gone Awry:Detecting Early Signs of Conversational Failure".
"Noi come esseri umani abbiamo un'intuizione di come rilevare se qualcosa sta andando male, ma è solo un sospetto. Non possiamo farlo il 100% delle volte. Perciò, ci chiediamo se possiamo costruire sistemi per replicare questa intuizione, perché gli esseri umani sono costosi e impegnati, e pensiamo che questo sia il tipo di problema in cui i computer hanno il potenziale per superare gli umani, " Disse Danescu-Niculescu-Mizil.
Il modello informatico, che ha preso in considerazione anche la prospettiva di Google, uno strumento di apprendimento automatico per valutare "tossicità, " era corretto circa il 65 percento delle volte. Gli umani hanno indovinato correttamente il 72 percento delle volte.
Le persone possono testare la propria capacità di indovinare quali conversazioni deragliano in un quiz online.
Lo studio ha analizzato 1, 270 conversazioni iniziate civilmente ma degenerate in attacchi personali, selezionato da 50 milioni di conversazioni su 16 milioni di pagine di "discussione" di Wikipedia, dove gli editori discutono articoli o altri problemi. Hanno esaminato gli scambi in coppia, confrontando ogni conversazione finita male con una che ha avuto successo sullo stesso argomento, quindi i risultati non sono stati distorti da argomenti delicati come la politica.
La carta, co-scritto con Cornell Ph.D. la studentessa di scienze dell'informazione Justine Zhang; dottorato di ricerca studenti di informatica Jonathan P. Chang, e Yiqing Hua; Lucas Dixon e Nithum Thain di Jigsaw; e Dario Taraborelli della Wikimedia Foundation, sarà presentato alla riunione annuale dell'Associazione per la linguistica computazionale, dal 15 al 20 luglio a Melbourne, Australia.
I ricercatori sperano che questo modello possa essere utilizzato per salvare conversazioni a rischio e migliorare il dialogo online, piuttosto che per vietare utenti specifici o censurare determinati argomenti. Alcuni manifesti online, come non madrelingua inglese, potrebbero non rendersi conto che potrebbero essere percepiti come aggressivi, e gli avvertimenti provenienti da un tale sistema potrebbero aiutarli ad autoregolarsi.
"Se ho strumenti che trovano attacchi personali, è già troppo tardi, perché l'attacco è già avvenuto e la gente l'ha già visto, " disse Chang. "Ma se capisci che questa conversazione sta andando in una direzione sbagliata e agisci allora, che potrebbe rendere il posto un po' più accogliente."