• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Le ansie per i livestream possono aiutarci a progettare una migliore moderazione dei contenuti di Facebook e YouTube

    Il livestream su Facebook non è solo uno strumento per condividere la violenza:ha molti usi sociali e politici popolari. Attestazione:glen carrie / unsplash, CC BY

    Mentre le famiglie di Christchurch seppelliscono i loro cari dopo l'attacco terroristico di venerdì, l'attenzione globale ora si rivolge a impedire che una cosa del genere accada di nuovo.

    In particolare, il ruolo svolto dai social media nella trasmissione di filmati dal vivo e nell'amplificarne la portata è al microscopio. Facebook e YouTube affrontano un esame approfondito.

    Secondo quanto riferito, il primo ministro neozelandese Jacinta Ardern è stato in contatto con i dirigenti di Facebook per chiedere che il filmato non fosse disponibile per la visualizzazione. Il primo ministro australiano Scott Morrison ha chiesto una moratoria sui servizi di live streaming amatoriale.

    Ma al di là di queste risposte immediate, questo terribile incidente rappresenta un'opportunità per una riforma a lungo termine. È tempo che le piattaforme di social media siano più aperte su come funziona il live streaming, come è moderato, e cosa dovrebbe succedere se o quando le regole vengono meno.

    Controllo crescente

    Con il presunto autore che apparentemente volava sotto il radar prima di questo incidente a Christchurch, la nostra attenzione collettiva è ora rivolta alla radicalizzazione online dei giovani.

    Come parte di ciò, le piattaforme online sono soggette a un maggiore controllo e Facebook e Youtube hanno attirato critiche.

    Dopo la diffusione del livestream originale avvenuta su Facebook, YouTube è diventato un luogo per il ricaricamento e la propagazione del filmato registrato.

    Entrambe le piattaforme hanno rilasciato dichiarazioni pubbliche sui loro sforzi per la moderazione.

    YouTube ha notato le difficoltà nel gestire un "volume senza precedenti" di caricamenti.

    Sebbene sia stato segnalato che meno di 4000 persone hanno visto lo streaming iniziale su Facebook, Facebook ha dichiarato:"Nelle prime 24 ore abbiamo rimosso 1,5 milioni di video dell'attacco a livello globale, di cui oltre 1,2 milioni bloccati in upload […]”

    Concentrarsi principalmente sullo streaming live è alquanto riduttivo. Sebbene il tiratore inizialmente abbia trasmesso in streaming il proprio filmato, la sfida più grande del controllo del video riguarda in gran parte due problemi:

    1. il periodo di tempo in cui era disponibile sulla piattaforma di Facebook prima che fosse rimosso
    2. la moderazione della pubblicazione di video "specchio" da parte di persone che avevano scelto di scaricare, modificare, e ricaricare il video per i propri scopi.

    Questi problemi illustrano i punti deboli delle politiche e delle pratiche di moderazione dei contenuti esistenti.

    Non è un compito facile

    La moderazione dei contenuti è una responsabilità complessa e non invidiabile. Ci si aspetta che piattaforme come Facebook e YouTube bilanciano le virtù della libera espressione e della notiziabilità con le norme socio-culturali e i desideri personali, nonché i regimi normativi locali dei paesi in cui operano.

    Quando le piattaforme eseguono male questa responsabilità (o, abdicano completamente) passano il compito ad altri, come i provider di servizi Internet della Nuova Zelanda che hanno bloccato l'accesso ai siti Web che ridistribuivano le riprese del tiratore.

    Le persone potrebbero ragionevolmente aspettarsi che piattaforme come Facebook e YouTube abbiano controlli approfonditi su ciò che viene caricato sui loro siti. Però, le enormi basi di utenti delle aziende significano che spesso devono bilanciare l'applicazione di sistemi automatizzati, sistemi algoritmici per la moderazione dei contenuti (come PhotoDNA di Microsoft, e ContentID di YouTube) con team di moderatori umani.

    Sappiamo dai rapporti investigativi che i team di moderazione di piattaforme come Facebook e YouTube hanno il compito di svolgere un lavoro particolarmente impegnativo. Sembrano avere un turnover relativamente elevato del personale che viene rapidamente esaurito da pesanti carichi di lavoro mentre modera i peggiori contenuti su Internet. Sono mantenuti solo con un misero salario, e ciò che potrebbe essere considerato un'assistenza sanitaria mentale inadeguata.

    E mentre alcuni sistemi algoritmici possono essere efficaci su larga scala, possono anche essere sovvertiti da utenti competenti che comprendono aspetti della loro metodologia. Se hai mai trovato un video su YouTube in cui i colori sono distorti, la riproduzione audio è leggermente fuori sincrono, o l'immagine è fortemente ingrandita e ritagliata, probabilmente hai visto il tentativo di qualcuno di aggirare gli algoritmi ContentID.

    Per le piattaforme online, la risposta agli attacchi terroristici è ulteriormente complicata dal difficile equilibrio che devono trovare tra il loro desiderio di proteggere gli utenti da filmati gratuiti o spaventosi con il loro impegno a informare le persone che cercano notizie attraverso la loro piattaforma.

    Dobbiamo anche riconoscere gli altri modi in cui le funzionalità di live streaming nella vita moderna. Il livestreaming è un redditizio settore dell'intrattenimento di nicchia, con migliaia di utenti innocenti che trasmettono hobby con gli amici, dai giochi da tavolo al mukbang (mangiare in compagnia), ai videogiochi. Il live streaming è importante per gli attivisti nei paesi autoritari, permettendo loro di condividere filmati di testimoni oculari di crimini, e spostare i rapporti di potere. Un divieto di live streaming impedirebbe gran parte di questa attività.

    Abbiamo bisogno di un nuovo approccio

    Le sfide di Facebook e YouTube nell'affrontare la questione dei crimini d'odio trasmessi in streaming ci dicono qualcosa di importante. Abbiamo bisogno di un più aperto, approccio trasparente alla moderazione. Le piattaforme devono parlare apertamente di come viene svolto questo lavoro, ed essere pronti a incorporare il feedback dei nostri governi e della società in modo più ampio.

    Un buon punto di partenza sono i principi di Santa Clara, generati inizialmente da una conferenza sulla moderazione dei contenuti tenutasi a febbraio 2018 e aggiornati a maggio 2018. Questi offrono una solida base per la riforma, affermando:

    • le aziende dovrebbero pubblicare il numero di post rimossi e gli account sospesi permanentemente o temporaneamente a causa di violazioni delle loro linee guida sui contenuti
    • le aziende dovrebbero informare ogni utente il cui contenuto è stato rimosso o l'account è stato sospeso circa il motivo della rimozione o della sospensione
    • le aziende dovrebbero offrire un'opportunità significativa per presentare ricorso tempestivo contro la rimozione di contenuti o la sospensione dell'account.

    Un approccio più socialmente responsabile ai ruoli delle piattaforme come moderatori del discorso pubblico richiede un allontanamento dalla segretezza della scatola nera a cui le piattaforme sono abituate e un passaggio a discussioni pubbliche più approfondite sulla moderazione dei contenuti.

    Alla fine, una maggiore trasparenza può facilitare un panorama politico meno reattivo, dove sia la politica pubblica che l'opinione pubblica hanno una maggiore comprensione delle complessità della gestione delle tecnologie di comunicazione nuove e innovative.

    Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com