Da sinistra Monika Bickert, capo della gestione delle politiche globali di Facebook, Nick Pickles, direttore delle politiche pubbliche per Twitter, Derek Slater, direttore globale della politica dell'informazione presso Google, e George Selim, Senior Vice President of Programs della Anti-Defamation League, testimoniano davanti al Senato Commerce, Commissione Scienza e Trasporti su come le società di Internet e dei social media sono preparate a contrastare il terrorismo e l'estremismo, Mercoledì, 18 settembre 2019, al Campidoglio di Washington. (Foto AP/J. Scott Applewhite)
Dirigenti di Facebook, Google e Twitter hanno dichiarato mercoledì al Congresso di essere migliorati e più veloci nel rilevare e rimuovere i contenuti estremisti violenti sulle loro piattaforme di social media di fronte alle sparatorie di massa alimentate dall'odio.
Interrogato in udienza dalla Commissione Commercio del Senato, i dirigenti hanno affermato che stanno spendendo soldi in tecnologia per migliorare la loro capacità di segnalare contenuti estremisti e prendere l'iniziativa di contattare le autorità di contrasto per cercare di prevenire potenziali incidenti violenti.
"Continueremo a investire nelle persone e nella tecnologia per affrontare la sfida, " ha detto Derek Slater, Direttore della politica dell'informazione di Google.
I legislatori vogliono sapere cosa stanno facendo le aziende per rimuovere l'incitamento all'odio dalle loro piattaforme e come si stanno coordinando con le forze dell'ordine.
"Stiamo vivendo un'ondata di odio. ... I social media sono usati per amplificare quell'odio, " ha detto la senatrice Maria Cantwell dello stato di Washington, l'anziano democratico del pannello.
I dirigenti dell'azienda hanno testimoniato che la loro tecnologia sta migliorando per identificare e rimuovere più velocemente i contenuti sospetti.
Dei 9 milioni di video rimossi da YouTube di Google nel secondo trimestre dell'anno, L'87% è stato segnalato da una macchina che utilizza l'intelligenza artificiale, e molti di loro furono abbattuti prima di avere una sola vista, ha detto Slater.
Da sinistra Monika Bickert, capo della gestione delle politiche globali di Facebook, Nick Pickles, direttore delle politiche pubbliche per Twitter, e Derek Slater, direttore globale della politica dell'informazione di Google testimonia davanti al Senato Commerce, Science and Transportation Committee su come le società di Internet e dei social media sono preparate a contrastare il terrorismo e l'estremismo, Mercoledì, 18 settembre 2019, al Campidoglio di Washington. (Foto AP/J. Scott Applewhite)
Dopo la sparatoria al liceo del febbraio 2018 in Florida che ha ucciso 17 persone, Google ha iniziato a contattare in modo proattivo le autorità preposte all'applicazione della legge per vedere come possono coordinare meglio, ha detto Slater. Nikolas Cruz, il sospettato di sparare, aveva precedentemente pubblicato su una pagina di YouTube, "Diventerò un tiratore professionista della scuola, " hanno detto le autorità.
Questa settimana da Facebook è giunta voce che collaborerà con le forze dell'ordine per addestrare i suoi sistemi di intelligenza artificiale a riconoscere i video di eventi violenti come parte di uno sforzo più ampio per reprimere l'estremismo. I sistemi di intelligenza artificiale di Facebook non sono stati in grado di rilevare il video in live streaming delle sparatorie alla moschea in Nuova Zelanda a marzo che hanno ucciso 50 persone. Il sedicente suprematista bianco accusato della sparatoria aveva trasmesso in streaming l'attacco.
Lo sforzo utilizzerà filmati bodycam dell'addestramento alle armi da fuoco forniti dal governo degli Stati Uniti e del Regno Unito e dalle forze dell'ordine.
Monika Bickert, capo della gestione delle politiche globali di Facebook, testimonia davanti al Senato Commercio, Commissione Scienza e Trasporti durante un'audizione su come le società di Internet e dei social media sono preparate a contrastare il terrorismo e l'estremismo, Mercoledì, 18 settembre 2019, al Campidoglio di Washington. (Foto AP/J. Scott Applewhite)
Facebook sta inoltre ampliando la sua definizione di terrorismo per includere non solo atti di violenza destinati a raggiungere uno scopo politico o ideologico, ma anche tentativi di violenza, soprattutto quando mirato a civili con l'intento di costringere e intimidire. La società ha avuto un successo misto nei suoi sforzi per limitare la diffusione di materiale estremista sul suo servizio.
Facebook sembra aver fatto pochi progressi, Per esempio, sui suoi sistemi automatizzati per la rimozione di contenuti proibiti che glorificano gruppi come lo Stato Islamico nei quattro mesi da quando The Associated Press ha dettagliato come le pagine di Facebook generate automaticamente per le aziende stanno aiutando gli estremisti del Medio Oriente e i suprematisti bianchi negli Stati Uniti I nuovi dettagli provengono da un aggiornamento di una denuncia alla Securities and Exchange Commission che il National Whistleblower Center intende presentare questa settimana.
Facebook ha dichiarato in risposta che rimuove tutte le pagine generate automaticamente "che violano le nostre politiche. Anche se non possiamo catturarle tutte, rimaniamo vigili in questo sforzo".
Monika Bickert, capo della gestione delle politiche globali di Facebook, affiancato a destra da Nick Pickles, direttore delle politiche pubbliche per Twitter, testimonia davanti al Senato Commercio, Commissione Scienza e Trasporti durante un'audizione su come le società di Internet e dei social media sono preparate a contrastare il terrorismo e l'estremismo, Mercoledì, 18 settembre 2019, al Campidoglio di Washington. (Foto AP/J. Scott Applewhite)
Monika Bickert, Responsabile della gestione delle politiche globali di Facebook, ha affermato all'udienza del Senato che la società ha aumentato la sua capacità di rilevare il terrore, violenza e incitamento all'odio molto prima. "Sappiamo che le persone devono essere al sicuro, " ha detto. Bickert ha notato che Facebook rimuove qualsiasi contenuto che promuovono la violenza, supremazia bianca o nazionalismo oltre a indicare il suicidio, e disabilita gli account quando vengono rilevate minacce.
Direttore della strategia di politica pubblica di Twitter, Nick Pickles, ha affermato che il servizio ha sospeso oltre 1,5 milioni di account per promuovere il terrorismo tra il 1 agosto, 2015, e 31 dicembre, 2018. Oltre il 90% degli account viene sospeso attraverso le misure proattive di Twitter, Egli ha detto, senza aspettare i rapporti del governo e delle forze dell'ordine.
Il senatore Rick Scott, R-Fla., ha chiesto a Pickles perché Twitter non avesse sospeso l'account del leader socialista venezuelano Nicolas Maduro, che ha presieduto a un'aggravarsi della crisi economica e politica e ha minacciato i politici dell'opposizione di essere perseguito penalmente.
Monika Bickert, capo della gestione delle politiche globali di Facebook, affiancato a destra da Nick Pickles, direttore delle politiche pubbliche per Twitter, testimonia davanti al Senato Commercio, Commissione Scienza e Trasporti durante un'audizione su come le società di Internet e dei social media sono preparate a contrastare il terrorismo e l'estremismo, Mercoledì, 18 settembre 2019, al Campidoglio di Washington. (Foto AP/J. Scott Applewhite)
Derek Slater, direttore globale della politica dell'informazione presso Google, ascolta prima di testimoniare in un Senato Commercio, Audizione della commissione per la scienza e i trasporti su come le società di Internet e dei social media sono preparate a contrastare il terrorismo e l'estremismo, Mercoledì, 18 settembre 2019, al Campidoglio di Washington. (Foto AP/J. Scott Applewhite)
Da sinistra Monika Bickert, capo della gestione delle politiche globali di Facebook, Nick Pickles, direttore delle politiche pubbliche per Twitter, e Derek Slater, direttore globale della politica dell'informazione di Google testimonia davanti al Senato Commerce, Science and Transportation Committee su come le società di Internet e dei social media sono preparate a contrastare il terrorismo e l'estremismo, Mercoledì, 18 settembre 2019, al Campidoglio di Washington. (Foto AP/J. Scott Applewhite)
Se Twitter ha rimosso l'account di Maduro, "non cambierebbe i fatti sul campo, " ha detto sottaceti.
Scott ha detto di non essere d'accordo perché l'account di Maduro con circa 3,7 milioni di follower gli fornisce legittimità come leader mondiale.
© 2019 The Associated Press. Tutti i diritti riservati.