Credito:Unsplash/CC0 di dominio pubblico
I social media ci hanno permesso di connetterci tra loro come mai prima d'ora. Ma ha avuto un prezzo:ha consegnato un megafono a tutti, inclusi terroristi, molestatori di bambini e gruppi di odio. Le istituzioni dell'UE hanno recentemente raggiunto un accordo sul Digital Services Act (DSA), che mira a "assicurarsi che ciò che è illegale offline sia trattato come illegale online".
Il governo del Regno Unito ha anche in lavorazione una legge sulla sicurezza online, per rafforzare i requisiti per le piattaforme digitali per eliminare il materiale illegale.
La scala in cui operano le grandi piattaforme di social media, che possono avere miliardi di utenti da tutto il mondo, rappresenta una sfida importante nella sorveglianza dei contenuti illegali. Ciò che è illegale in un paese potrebbe essere un'espressione legale e protetta in un altro. Ad esempio, le regole per criticare il governo oi membri di una famiglia reale.
Questo diventa complicato quando un utente pubblica un post da un paese e il post viene condiviso e visualizzato in altri paesi. Nel Regno Unito, ci sono state persino situazioni in cui era legale stampare qualcosa sulla prima pagina di un giornale in Scozia, ma non in Inghilterra.
La DSA lascia agli Stati membri dell'UE la possibilità di definire i contenuti illegali nelle proprie leggi.
L'approccio del database
Anche laddove la legge è chiara, ad esempio qualcuno che pubblica droghe controllate in vendita o recluta per gruppi terroristici vietati, la moderazione dei contenuti sulle piattaforme dei social media deve affrontare sfide di portata.
Gli utenti pubblicano centinaia di milioni di post al giorno. L'automazione può rilevare il contenuto illegale noto in base a un'impronta digitale sfocata del contenuto del file. Ma questo non funziona senza un database e il contenuto deve essere rivisto prima di essere aggiunto.
Nel 2021, la Internet Watch Foundation ha esaminato più segnalazioni rispetto ai primi 15 anni di esistenza, di cui 252.000 che contenevano abusi sui minori:un aumento del 64% su base annua rispetto al 2020.
Tuttavia, i nuovi video e immagini non verranno catturati da un database. Sebbene l'intelligenza artificiale possa provare a cercare nuovi contenuti, non sempre riuscirà a fare le cose per bene.
Come si confrontano le piattaforme social?
All'inizio del 2020, Facebook avrebbe avuto circa 15.000 moderatori di contenuti negli Stati Uniti, rispetto ai 4.500 del 2017. TikTok ha affermato di avere 10.000 persone che lavorano su "fiducia e sicurezza" (che è un po' più ampia della moderazione dei contenuti), negli ultimi tempi 2020. Un rapporto della NYU Stern School of Business del 2020 suggeriva che Twitter avesse circa 1.500 moderatori.
Facebook afferma che nel 2021, il 97% dei contenuti che hanno segnalato come incitamento all'odio è stato rimosso dall'IA, ma non sappiamo cosa sia stato perso, non segnalato o non rimosso.
Il DSA farà in modo che i più grandi social network aprano i propri dati e le proprie informazioni a ricercatori indipendenti, il che dovrebbe aumentare la trasparenza.
Moderatori umani vs tecnologia
La revisione di contenuti violenti, inquietanti, razzisti e odiosi può essere traumatico per i moderatori e ha portato a un accordo giudiziario di 52 milioni di dollari (42 milioni di sterline). Alcuni moderatori dei social media riferiscono di dover rivedere fino a 8.000 contenuti segnalati al giorno.
Sebbene esistano tecniche emergenti basate sull'intelligenza artificiale che tentano di rilevare tipi specifici di contenuto, gli strumenti basati sull'intelligenza artificiale faticano a distinguere tra contenuti illegali e sgradevoli o potenzialmente dannosi (ma altrimenti legali). L'IA potrebbe segnalare erroneamente contenuti innocui, perdere contenuti dannosi e aumenterà la necessità di una revisione umana.
Secondo quanto riferito, gli studi interni di Facebook hanno rilevato casi in cui è stata intrapresa l'azione sbagliata contro i post fino al "90% delle volte". Gli utenti si aspettano coerenza, ma è difficile da fornire su larga scala e le decisioni dei moderatori sono soggettive. I casi in aree grigie vanificheranno anche le linee guida più specifiche e prescrittive.
Atto di bilanciamento
La sfida si estende anche alla disinformazione. C'è una linea sottile tra la protezione della libertà di parola e di stampa e la prevenzione della diffusione deliberata di contenuti falsi. Gli stessi fatti possono spesso essere inquadrati in modo diverso, cosa ben nota a chiunque abbia familiarità con la lunga storia dello "spin" in politica.
I social network spesso si affidano agli utenti che segnalano contenuti dannosi o illegali e il DSA cerca di rafforzarlo. Ma un approccio eccessivamente automatizzato alla moderazione potrebbe segnalare o addirittura nascondere i contenuti che raggiungono un determinato numero di rapporti. Ciò significa che i gruppi di utenti che desiderano sopprimere contenuti o punti di vista possono armare la segnalazione di massa dei contenuti.
Le società di social media si concentrano sulla crescita degli utenti e sul tempo trascorso sulla piattaforma. Finché gli abusi non trattengono nessuno di questi, probabilmente guadagneranno di più. Questo è il motivo per cui è importante quando le piattaforme prendono mosse strategiche (ma potenzialmente polarizzanti), come la rimozione dell'ex presidente degli Stati Uniti Donald Trump da Twitter.
La maggior parte delle richieste avanzate dalla DSA sono di per sé ragionevoli, ma sarà difficile da attuare su larga scala. Un maggiore controllo dei contenuti porterà a un maggiore utilizzo dell'automazione, che non può effettuare valutazioni soggettive del contesto. I ricorsi potrebbero essere troppo lenti per offrire un ricorso significativo se un utente riceve erroneamente un ban automatico.
Se le sanzioni legali per l'errata moderazione dei contenuti sono abbastanza elevate per i social network, potrebbero trovarsi di fronte a poche opzioni a breve termine oltre a limitare più attentamente ciò che gli utenti vengono mostrati. L'approccio di TikTok ai contenuti selezionati è stato ampiamente criticato. I bias della piattaforma e le "bolle di filtro" sono una vera preoccupazione. Le bolle filtro vengono create in cui il contenuto mostrato all'utente viene selezionato automaticamente da un algoritmo, che tenta di indovinare cosa si vuole vedere dopo, in base a dati come quelli che si sono visti in precedenza. Gli utenti a volte accusano le società di social media di bias della piattaforma o moderazione sleale.
C'è un modo per moderare un megafono globale? Direi che le prove indicano no, almeno non su larga scala. Probabilmente vedremo la risposta giocare attraverso l'applicazione del DSA in tribunale.