Credito:CC0 Dominio Pubblico
A metà settembre l'Unione Europea ha minacciato di multare le società Big Tech se non avessero rimosso i contenuti terroristici entro un'ora dalla loro comparsa online. Il cambiamento è arrivato perché le crescenti tensioni si stanno sviluppando e si stanno manifestando sulle piattaforme dei social media.
Conflitti sociali che una volta si accumulavano nelle riunioni dietro le quinte e arrivavano al culmine nelle strade della città, stanno ora guadagnando slancio sulle piattaforme dei social media prima di riversarsi nella vita reale. Nel passato, i governi tendevano a controllare i media tradizionali, con poca o nessuna possibilità per gli individui di trasmettere odio.
La rivoluzione digitale ha cambiato tutto.
organizzazioni terroristiche, soprattutto militanti dello Stato Islamico (ISIS), hanno utilizzato piattaforme di social media come Facebook, Instagram e Twitter per le loro campagne di propaganda, e per pianificare attacchi terroristici contro i civili.
Gruppi di estrema destra, compresi gli estremisti anti-rifugiati in Germania, stanno anche sfruttando sempre di più le piattaforme tecnologiche per sposare opinioni anti-immigrati e demonizzare le minoranze.
Dallo Sri Lanka al Myanmar, le tensioni comunitarie, alimentate online, hanno portato alla violenza.
A causa della crescente volontà politica all'interno dei paesi occidentali di regolamentare le società di social media, molti titani della tecnologia sostengono di potersi autoregolare e che l'intelligenza artificiale (AI) è uno degli strumenti chiave per ridurre l'odio online. Diversi anni fa, abbiamo creato il Digital Mass Atrocity Prevention Lab per lavorare al miglioramento delle politiche pubbliche per frenare lo sfruttamento delle piattaforme tecnologiche da parte di estremisti violenti.
Abilità ipervendute?
Le aziende tecnologiche sono dolorosamente consapevoli dell'uso dannoso delle loro piattaforme.
A giugno 2017, Facebook, Microsoft, Twitter e YouTube hanno annunciato la formazione del Global Internet Forum to Counter Terrorism, che mira a interrompere le attività estremiste online. Tuttavia, con l'aumentare della pressione politica per rimuovere i contenuti online dannosi, queste aziende stanno iniziando a rendersi conto dei limiti dei loro moderatori di contenuti umani.
Anziché, stanno sviluppando e implementando sempre più tecnologie AI per automatizzare il processo di rilevamento e rimozione di contenuti indesiderati. Ma lo stanno facendo senza supervisione e poche informazioni pubbliche su come funzionano questi sistemi di intelligenza artificiale, un problema individuato in un recente rapporto del Public Policy Forum.
Twitter, secondo il suo più recente rapporto sulla trasparenza, afferma di aver usato l'intelligenza artificiale per abbatterne più di 300, 000 conti legati al terrorismo nella prima metà del 2017.
Lo stesso Facebook riconosce che sta lottando per utilizzare l'intelligenza artificiale in modo efficiente sulle questioni relative all'incitamento all'odio. Il CEO Mark Zuckerberg ha dichiarato ai membri del Congresso degli Stati Uniti all'inizio di quest'anno che l'IA fa ancora fatica ad affrontare le sfumature dei dialetti linguistici, contesto e se un'affermazione sia qualificata o meno come incitamento all'odio, e che potrebbero volerci anni per essere risolta.
Però, la società afferma inoltre di essere in grado di rimuovere il 99% dei contenuti affiliati a ISIS e al-Qaeda utilizzando algoritmi basati sull'intelligenza artificiale e moderatori di contenuti umani. Non è stato ancora studiato in modo indipendente se l'intelligenza artificiale o gli esseri umani siano la chiave per le affermazioni di successo dell'azienda.
Il fallimento di AI
Nel 2017, 250 aziende hanno sospeso i contratti pubblicitari con Google per la sua presunta incapacità di moderare i contenuti estremisti di YouTube. Un anno dopo, Vicepresidente senior per la pubblicità e il commercio di Google, Sridhar Ramaswamy, afferma che l'azienda sta facendo grandi progressi nella sicurezza della piattaforma per riconquistare la fiducia perduta dei suoi clienti.
Però, un recente studio dell'ONG Counter Extremism Project confuta l'efficacia degli sforzi dell'azienda per limitare ed eliminare i video estremisti. Sono necessarie più trasparenza e responsabilità da parte di YouTube, dato che lo studio ha rilevato che oltre il 90% dei video dell'ISIS è stato caricato più di una volta, senza alcuna azione intrapresa contro gli account che hanno violato i termini di servizio della società.
Chiaramente non esiste un percorso semplice in avanti. Rimozione di contenuti non dannosi, offensivo, estremista o illegale, anche se sgradevole, è un impedimento alla libertà di parola. In alcuni casi, l'utilizzo dell'intelligenza artificiale per rimuovere i contenuti ha bloccato il materiale legittimo pubblicato dai difensori dei diritti umani.
Per esempio, nel 2017, Shah Hossain, un attivista per i diritti umani ha scoperto che un numero significativo dei suoi post su Facebook riguardanti la persecuzione della minoranza Rohingya in Myanmar era stato cancellato. YouTube ha anche cancellato il suo canale di notizie, che aveva quasi 80, 000 iscritti. Hossain stava documentando violazioni dei diritti umani, non sposare l'odio.
In Siria, dove il giornalismo indipendente è severamente limitato dalla guerra, i video e le foto pubblicate online dagli attivisti sono fondamentali per comprendere la situazione nel Paese. Nel tentativo di reprimere i contenuti estremisti, però, Gli algoritmi basati sull'intelligenza artificiale di YouTube hanno rimosso migliaia di video di atrocità contro i civili. I video sono stati pubblicati come prove per l'eventuale perseguimento di funzionari siriani per crimini contro l'umanità. Questo è abbastanza preoccupante.
Andando avanti
I noti giganti dei social media hanno dichiarato pubblicamente che metteranno più risorse nella sorveglianza delle loro piattaforme. Però, visti i risultati attuali, è tempo di considerare se questo approccio è etico ed efficace.
Il Regno Unito, Francia, Germania, l'Unione Europea e gli Stati Uniti, tra gli altri, hanno iniziato a discutere apertamente e ad attuare misure normative sull'industria tecnologica, non solo riguardanti il terrorismo e l'incitamento all'odio, ma anche interferenze elettorali digitali, la diffusione di "fake news" e campagne di disinformazione.
Anche il Canada ha iniziato a prendere sul serio la questione, formare il Digital Inclusion Lab presso Global Affairs Canada, che lavora per rafforzare gli sforzi congiunti del G7.
Sono iniziative tanto necessarie. I grandi giganti della tecnologia hanno esagerato con l'efficacia dell'intelligenza artificiale nel contrastare l'odio sulle loro piattaforme. Le nostre società democratiche e aperte devono mettere da parte l'idea che l'IA sia la panacea per il problema in questione. La polarizzazione sociale e la crescente sfiducia in tutto il pianeta continueranno a meno che i funzionari eletti non regolino la Big Tech.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.