Credito:CC0 Dominio Pubblico
I ricercatori del Caltech hanno dimostrato che gli algoritmi di apprendimento automatico possono monitorare le conversazioni sui social media online mentre si evolvono, che un giorno potrebbe portare a un modo efficace e automatizzato per individuare la pesca alla traina online.
Il progetto unisce i laboratori del ricercatore di intelligenza artificiale (AI) Anima Anandkumar, Bren Professore di Informatica e Scienze Matematiche, e Michael Alvarez, professore di scienze politiche. Il loro lavoro è stato presentato il 14 dicembre al workshop AI for Social Good alla Conferenza 2019 sui sistemi di elaborazione delle informazioni neurali a Vancouver, Canada. Il loro team di ricerca include Anqi Liu, borsista post-dottorato; Maya Srikanth, uno junior al Caltech; e Nicholas Adams-Cohen (MS '16, dottorato di ricerca '19) dell'Università di Stanford.
"Questa è una delle cose che amo di Caltech:la capacità di superare i confini, sviluppare sinergie tra le scienze sociali e, in questo caso, informatica, "dice Alvarez.
La prevenzione delle molestie online richiede la rapida individuazione di offese, molesto, e post negativi sui social media, che a sua volta richiede il monitoraggio delle interazioni online. I metodi attuali per ottenere tali dati sui social media sono completamente automatizzati e non interpretabili o si basano su un insieme statico di parole chiave, che può diventare rapidamente obsoleto. Nessuno dei due metodi è molto efficace, secondo Srikanth.
"Non è scalabile che gli umani cerchino di fare questo lavoro a mano, e quegli umani sono potenzialmente prevenuti, "dice. "D'altra parte, la ricerca per parole chiave risente della velocità con cui si evolvono le conversazioni online. Nuovi termini emergono e i vecchi termini cambiano significato, quindi una parola chiave che è stata usata sinceramente un giorno potrebbe essere sarcasticamente intesa il giorno dopo."
Anziché, il team ha utilizzato un modello GloVe (Global Vector for Word Representation) per scoprire parole chiave nuove e pertinenti. GloVe è un modello di word-embedding, nel senso che rappresenta le parole in uno spazio vettoriale, dove la "distanza" tra due parole è una misura della loro somiglianza linguistica o semantica. A partire da una parola chiave, questo modello può essere utilizzato per trovare altri che sono strettamente correlati a quella parola per rivelare gruppi di termini rilevanti che sono effettivamente in uso. Per esempio, la ricerca su Twitter degli usi di "MeToo" nelle conversazioni ha prodotto gruppi di hashtag correlati come "SupportSurvivors, " "Sono con lei, " e "NotSilent." Questo approccio offre ai ricercatori un set di parole chiave dinamico e in continua evoluzione per la ricerca.
Ma non basta sapere se una determinata conversazione è correlata all'argomento di interesse; il contesto conta. Per quello, GloVe mostra la misura in cui determinate parole chiave sono correlate, fornendo input su come vengono utilizzati. Per esempio, in un forum online di Reddit dedicato alla misoginia, la parola "femmina" era usata in stretta associazione con le parole "sessuale, " "negativo, " e "rapporto sessuale". Nei post di Twitter sul movimento #MeToo, era più probabile che la parola "femmina" fosse associata ai termini "aziende, " "desiderio, " e "vittime".
Il progetto era un proof of concept volto a fornire un giorno alle piattaforme di social media uno strumento più potente per individuare le molestie online. L'interesse di Anandkumar per l'argomento è stato intensificato dal suo coinvolgimento nella campagna per cambiare il nome abbreviato della conferenza sui sistemi di elaborazione delle informazioni neurali dal suo acronimo originale, "NIPOLI, " a "NeurIPS."
"Il campo della ricerca sull'IA sta diventando più inclusivo, ma ci sono sempre persone che resistono al cambiamento, "dice Anandkumar, che nel 2018 si è trovata bersaglio di molestie e minacce online a causa del suo tentativo riuscito di passare a un acronimo senza connotazioni potenzialmente offensive. "È stata un'esperienza illuminante su quanto brutto possa diventare il trolling. Si spera, gli strumenti che stiamo sviluppando ora aiuteranno a combattere tutti i tipi di molestie in futuro".
Il loro studio è intitolato "Trovare i troll dei social media:metodi dinamici di selezione delle parole chiave per dibattiti online in rapida evoluzione".