• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  science >> Scienza >  >> Altro
    Cosa rivelano i big data sull'estremismo online

    Homa Hosseinmardi, Ph.D. Credito:Università della Pennsylvania

    Poiché i gruppi estremisti e i movimenti marginali come QAnon hanno acquisito consapevolezza, la loro capacità di proliferare rapidamente disinformazione e cospirazioni ha messo le piattaforme dei social media sotto un maggiore controllo pubblico. Facebook, Twitter e altre società tecnologiche sono state rimproverate sia dal Congresso che dai media per non aver affrontato seriamente la radicalizzazione online tra i loro utenti. Man mano che gli Stati Uniti sono diventati politicamente sempre più polarizzati, la questione se gli algoritmi di queste piattaforme, involontariamente o in base alla progettazione, aiutino gli utenti a scoprire contenuti estremi e fuorvianti è diventata più urgente.

    Ma come sottolinea Homa Hosseinmardi, Ph.D., una delle principali piattaforme ha sorprendentemente ricevuto meno attenzione:YouTube. Hosseinmardi, ricercatore senior e ricercatore capo del progetto PennMap con il Computational Social Science (CSS) Lab dell'Università della Pennsylvania, parte della School for Engineering and Applied Sciences, Annenberg School for Communication e Wharton School, osserva che mentre è spesso percepito come un canale di intrattenimento piuttosto che una fonte di notizie, YouTube è forse la più grande piattaforma di consumo di media al mondo.

    "YouTube è stato trascurato dai ricercatori, perché non credevamo che fosse un posto per le notizie", ha detto. "Ma se guardi la scala, ha più di due miliardi di utenti. Se prendi quella popolazione e la moltiplichi per la frazione di contenuti di notizie guardati su YouTube, ti rendi conto che la quantità di consumo di informazioni su YouTube è molto più che su Twitter."

    La ricerca di Hosseinmardi è guidata da domande sul comportamento umano, in particolare negli spazi online. Il suo dottorato di ricerca la ricerca ha affrontato molestie e bullismo online, in particolare su Instagram e Askfm, un social network semi-anonimo. Prima di entrare in Penn, è stata assistente di ricerca post-dottorato presso l'Information Sciences Institute della University of Southern California, dove ha studiato personalità, prestazioni lavorative e salute mentale negli ambienti di lavoro utilizzando i segnali fisiologici dei dipendenti come il battito cardiaco e la respirazione.

    Nel 2019 è entrata a far parte del CSSLab, diretto dal professor Duncan Watts della Stevens University. Nel suo lavoro con il Lab, Hosseinmardi utilizza dati su larga scala e metodi computazionali per ottenere informazioni su questioni tra cui la polarizzazione dei media, i pregiudizi algoritmici e come i social network influenzano le nostre vite.

    Diversi anni fa, un team di ricercatori tra cui Hosseinmardi e Watts si è interessato alla relazione tra radicalizzazione online e consumo di notizie su YouTube. In che misura gli algoritmi di YouTube promuovono il coinvolgimento con contenuti fortemente distorti o radicali e in che misura ciò è influenzato dal comportamento online di un individuo?

    "Abbiamo tutti sentito aneddoti sulla radicalizzazione di YouTube:una persona ha guardato un video ed è finita con una teoria del complotto", afferma Hosseinmardi. "Ci siamo resi conto che il pubblico in generale percepisce questo come una prova di un problema sistematico con l'algoritmo."

    Mira a rispondere a questa domanda:se le persone iniziano da qualche parte su YouTube, dopo aver visto alcuni video consecutivamente, finiranno nella stessa destinazione?

    Il team ha testato questa indagine studiando i comportamenti di navigazione individuali, su YouTube e sul Web, di oltre 300.000 americani da gennaio 2016 a dicembre 2019. Hanno anche ottenuto i dati demografici degli utenti tra cui età, sesso, razza, istruzione, occupazione, reddito, e orientamento politico, garantendo un campione rappresentativo della popolazione statunitense.

    Ad agosto, hanno pubblicato i loro risultati in Proceedings of the National Academy of Sciences , scoprendo che la saggezza convenzionale non è sempre giusta.

    I ricercatori non hanno osservato alcuna prova che il coinvolgimento di contenuti di estrema destra e "anti-veglia" sia sistematicamente causato dai consigli di YouTube. Piuttosto, riflette in gran parte le preferenze degli utenti e il più ampio ecosistema di contenuti online. I consumatori di contenuti di estrema destra arrivano attraverso vari percorsi come motori di ricerca, altri siti e video visti in precedenza.

    Tuttavia, resta il fatto che gli individui continuano a essere radicalizzati online. Secondo Hosseinmardi e altri esperti, la ricerca continua e orientata alla soluzione è fondamentale per affrontare questo problema. All'inizio di novembre, lo studio del 2020 correlato del team, "Valutare la scala, la crescita e le origini delle camere d'eco di destra su YouTube", è stato citato in un'audizione della commissione per la sicurezza interna e gli affari governativi del Senato degli Stati Uniti che ha esaminato il ruolo delle piattaforme di social media nell'ascesa dell'estremismo interno.

    Hosseinmardi e i suoi colleghi considerano il loro lavoro in questo settore come un continuo progresso. PennMAP, un progetto di ricerca interdisciplinare e apartitico gestito dal CSSLab, sta costruendo tecnologia per valutare i pregiudizi dei media e i modelli di disinformazione in tutto lo spettro politico e per seguire come il consumo di informazioni influenza le convinzioni individuali e collettive. Il team sta creando un'infrastruttura di dati scalabile per analizzare decine di terabyte di contenuti televisivi, radiofonici e web, oltre a studiare panel rappresentativi di circa 500.000 consumatori di media in diversi anni. Stanno anche lavorando con i ricercatori dell'Istituto Federale Svizzero di Tecnologia per monitorare gli effetti delle modifiche alle norme e della de-piattaforma di YouTube sui suoi utenti sul Web e scoprire se il consumo estremo di contenuti viene di conseguenza ridotto o se gli utenti semplicemente sostituiscono YouTube con un'altra piattaforma che ospita contenuti simili.

    Tuttavia, avverte Hosseinmardi, i problemi sociali non possono essere risolti solo attraverso la riforma delle politiche. In larga misura, piattaforme come YouTube riflettono il mondo offline. La disinformazione fa parte di un ciclo più ampio, in cui contenuti distorti o fuorvianti possono disumanizzare i gruppi emarginati e minoritari, influenzando i livelli di empatia degli altri nei loro confronti nella vita "reale". Mentre la disinformazione continua a fluire, l'odio e le molestie continuano a diffondersi e i gruppi colpiti diventano sempre più silenziosi.

    In definitiva, sottolinea Hosseinmardi, è nostra responsabilità pensare in modo critico alle informazioni che consumiamo e accettare come verità.

    "Non posso affermare che non ci sia alcuna colpa per nessuna piattaforma, ma non dovremmo dimenticare il nostro ruolo come società e che le persone con un certo aspetto o persone di una certa razza o religione sono vittime", dice. "Le piattaforme sono il riflesso di grandi problemi della società di cui dobbiamo preoccuparci di più, rispetto al semplice puntare il dito contro le piattaforme. Dovrebbero fare la loro parte, ma anche noi dovremmo fare la nostra parte".

    © Scienza https://it.scienceaq.com