• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Perché Facebook non ha bloccato le riprese video live in Nuova Zelanda (Aggiornamento)

    Questa combinazione di immagini mostra i loghi delle aziende da sinistra, Twitter, YouTube e Facebook. Queste società Internet e altre affermano che stanno lavorando per rimuovere le riprese video girate da un uomo armato nella sparatoria nella moschea della Nuova Zelanda che erano ampiamente disponibili sui social media poche ore dopo l'orribile attacco. (Foto/File AP)

    Perché Facebook ha trasmesso il video in diretta della sparatoria alla moschea della Nuova Zelanda per 17 minuti? Nessuno ha avvisato l'azienda mentre stava accadendo?

    Facebook dice di no. Secondo il suo vicedirettore generale, Chris Sonderby, nessuna delle circa 200 persone che hanno guardato il video in diretta lo ha segnalato ai moderatori. In un post sul blog di martedì, Sonderby ha affermato che il primo rapporto dell'utente non è arrivato fino a 12 minuti dopo la fine della trasmissione.

    Tutto ciò solleva ulteriori domande, tra cui, perché così tante persone hanno guardato senza dire niente, se Facebook fa troppo affidamento su estranei e macchine per segnalare problemi, e se gli utenti e le forze dell'ordine sanno anche come contattare Facebook con dubbi su ciò che vedono sul servizio.

    "Quando vediamo le cose attraverso i nostri telefoni, immaginiamo che siano come uno show televisivo, " disse Shiva Vaidhyanathan, un professore di studi sui media presso l'Università della Virginia. "Sono a distanza, e non abbiamo potere".

    Facebook ha dichiarato di aver rimosso il video "in pochi minuti" dalla notifica della polizia neozelandese. Ma da allora, Facebook e altre società di social media hanno dovuto fare i conti con le copie pubblicate da altri.

    Il sospettato di aver sparato ha modellato attentamente il suo attacco per l'era di Internet, mentre trasmetteva in streaming l'uccisione di 50 persone in due moschee a Christchurch, Nuova Zelanda.

    Tim Cigelske, che insegna social media alla Marquette University di Milwaukee, ha detto che mentre gli spettatori hanno gli stessi obblighi morali di aiutare uno spettatore nel mondo fisico, le persone non sanno necessariamente cosa fare.

    "È come chiamare il 911 in caso di emergenza, " ha detto. "Dovevamo formare le persone e renderle più facili. Devi formare le persone in un modo nuovo se vedi un'emergenza accadere non di persona ma online".

    Per segnalare video in diretta, un utente deve sapere di fare clic su un piccolo set di tre punti grigi sul lato destro del post. Un utente che fa clic su "segnala video in diretta" può scegliere tra tipi di contenuti discutibili tra cui selezionare, compresa la violenza, bullismo e molestie. Agli utenti viene anche detto di contattare le forze dell'ordine se qualcuno è in pericolo immediato.

    Inoltre, sembra che Facebook non pubblichi alcuna informazione pubblica che istruisce le forze dell'ordine su come segnalare video pericolosi o criminali. La società ha una pagina intitolata "informazioni per le forze dell'ordine, " ma si limita a delineare le procedure per effettuare richieste legali per i record dell'account utente. Facebook non ha risposto immediatamente a una richiesta di commenti e domande sulle sue comunicazioni con la polizia.

    Facebook utilizza l'intelligenza artificiale per rilevare materiale discutibile, pur facendo affidamento sul pubblico per segnalare i contenuti che violano i suoi standard. Tali rapporti vengono quindi inviati a revisori umani, la società ha detto in un video di novembre.

    Il video ha anche delineato come utilizza la "visione artificiale" per rilevare il 97 percento della violenza grafica prima che qualcuno lo segnali. Però, è meno chiaro come questi sistemi si applichino allo streaming live di Facebook.

    Gli esperti dicono che il video in diretta pone sfide uniche, e lamentele sui suicidi in diretta streaming, si verificano regolarmente omicidi e percosse. Ciò nonostante, dicono che Facebook non può deviare la responsabilità.

    "Se non possono gestire la responsabilità, allora è colpa loro se continuano a fornire quel servizio, " disse Mary Anne Franks, professore di diritto all'Università di Miami.

    Un ufficiale di polizia fa la guardia davanti alla moschea Masjid Al Noor a Christchurch, Nuova Zelanda, Domenica, 17 marzo 2019, dove si è verificata una delle due sparatorie di massa. Sabato i residenti colpiti della Nuova Zelanda hanno contattato i musulmani nei loro quartieri e in tutto il paese, mostrare gentilezza a una comunità che soffre mentre un suprematista bianco di 28 anni stava in silenzio davanti a un giudice, accusato di sparatorie di massa in due moschee che hanno provocato la morte di decine di persone. (Foto AP/Vincent Yu)

    Lei definisce "incredibilmente offensivo e inappropriato" attribuire la responsabilità agli utenti sottoposti a video traumatici.

    In alcuni casi, non è chiaro fin dall'inizio se un video o un altro post violi gli standard di Facebook, soprattutto su un servizio con una gamma di lingue e norme culturali. L'indecisione non sembrava essere il caso qui, anche se. Facebook semplicemente non lo ha saputo in tempo.

    Sonderby di Facebook ha dichiarato nel post sul blog di martedì che la società "ha designato entrambe le sparatorie come attacchi terroristici, nel senso che ogni lode, supporto e rappresentazione degli eventi" sono violazioni.

    Vaidhyanathan ha affermato che la funzione video in diretta di Facebook si è trasformata in una bestia per la quale Facebook può fare ben poco "a parte girare l'interruttore". Sebbene Facebook abbia assunto più moderatori per integrare il rilevamento della macchina e le segnalazioni degli utenti, "non puoi assumere abbastanza persone" per sorvegliare un servizio con 2,3 miliardi di utenti.

    "Le persone troveranno sempre nuovi modi per esprimere odio e istigare alla violenza, " Egli ha detto.

    Il primo ministro neozelandese Jacinda Ardern ha espresso frustrazione per il fatto che il filmato sia rimasto online quattro giorni dopo il massacro.

    Le macchine possono rilevare quando gli utenti cercano di ripubblicare video vietati abbinando modelli, o impronte digitali, nei file. Ma gli utenti determinati ad aggirare questi controlli possono apportare piccole modifiche, come modificare il colore o la velocità del video.

    Il Forum Internet globale per contrastare il terrorismo, un gruppo di società Internet globali guidate da Facebook, Youtube, Microsoft e Twitter, ha affermato di aver identificato 800 versioni diverse e di averle aggiunte a un database condiviso utilizzato per bloccare immagini e video di terroristi violenti.

    Sonderby ha affermato che alcune varianti sono difficili da rilevare e che Facebook si è "esteso a ulteriori sistemi di rilevamento, incluso l'uso della tecnologia audio".

    In una serie di tweet il giorno dopo la sparatoria, L'ex capo della sicurezza di Facebook, Alex Stamos, ha presentato la sfida per le aziende tecnologiche mentre correvano per tenere il passo con le nuove versioni del video.

    "Quello che vedete sulle piattaforme principali è l'acqua che fuoriesce attorno a migliaia di dita infilate in una diga, " Egli ha detto.

    Stamos ha stimato che le grandi aziende tecnologiche stanno bloccando il caricamento di oltre il 99% dei video, "che non è abbastanza per renderlo impossibile da trovare."

    © 2019 The Associated Press. Tutti i diritti riservati.




    © Scienza https://it.scienceaq.com