Credito:CC0 Dominio Pubblico
Un team di ricercatori della Cornel University che lavora con la Wikimedia Foundation ha ideato un framework digitale per rilevare quando una discussione online rischia di diventare brutta. In un documento caricato su arXiv server di prestampa, il team descrive il loro approccio e come il loro algoritmo ha funzionato durante i test.
Come notano i ricercatori, le conversazioni online possono spesso degenerare in disaccordi e spesso attacchi personali. Notano inoltre che questo è spesso il caso quando le persone entrano in un ambiente che implica critiche, come Wikipedia. Là, gli editori dilettanti sono incoraggiati a offrire critiche al lavoro di altri come mezzo per migliorare il contenuto del sito web. Sfortunatamente, molte persone non rispondono bene a tali critiche, e come risultato, ricorrere alla pubblicazione di commenti sgradevoli. Il team della Wikimedia Foundation vorrebbe arginare tali conversazioni, perché oltre a favorire i cattivi sentimenti, dà anche al sito una cattiva reputazione. Per affrontare il problema, il team ha lavorato con il gruppo alla Cornell, che hanno studiato lo stesso problema; vale a dire, costruire un sistema informatico in grado di riconoscere quando una conversazione umana rischia di degenerare in cattiveria, e per frenarlo, o terminare la conversazione per le persone coinvolte.
Risolvere questo problema, i ricercatori hanno esaminato oltre 1, 200 conversazioni online sulle pagine di Wikipedia Talk alla ricerca di spunti linguistici. In tale contesto, i segnali erano parole che suggerivano contegno e livello di gentilezza. Così facendo, hanno scoperto che quando le persone usavano segnali come "per favore" e "grazie, " c'erano meno possibilità che le cose si mettessero male. C'erano anche frasi positive, come "Penso" o "Credo" che suggerivano un tentativo di mantenere le cose civili, che tendeva a mantenere le cose in equilibrio. D'altra parte, hanno anche trovato spunti meno utili, come quando le conversazioni sono iniziate con domande dirette o con la parola "tu". Tali segnali tendevano a portare al degrado della civiltà ad un certo punto e, suggeriscono i ricercatori, sono spesso visti da un lettore come ostili e polemici.
Il team ha quindi sviluppato un algoritmo che ha accettato i segnali come dati appresi e quindi ha analizzato le frasi alla ricerca di tali segnali e applicando loro un'intuizione simile a quella umana. Il risultato, riporta la squadra, era una struttura computerizzata che poteva riconoscere presto quando una conversazione rischiava di degenerare in un brutto gioco di avanti e indietro. Hanno scoperto che il sistema è accurato al 61,6%. Gli umani che fanno lo stesso test, però, ha segnato il 72%.
© 2018 Phys.org