Rimuovere le pagine web illegali non è sufficiente. Credito:Thomas Holt/Shutterstock
YouTube ha, ancora una volta, non è riuscito a proteggere i bambini online. Recenti indagini di Wired e del video blogger Matt Watson hanno affermato che i pedofili stavano utilizzando la sezione dei commenti del sito per lasciare messaggi predatori su video contenenti e caricati da bambini, e per condividere link a materiale pedopornografico.
In risposta alle indagini – e alla minaccia di un boicottaggio degli inserzionisti – YouTube ha ora affermato che disattiverà i commenti sui video contenenti bambini piccoli. Ma purtroppo, Questo non è un incidente isolato. Nel gennaio 2019 è stato affermato che il motore di ricerca Bing di Microsoft stava emergendo e suggeriva materiale pedopornografico. E questo tipo di incidenti sono la ripetizione di problemi simili che si sono verificati negli ultimi cinque anni.
La realtà è che Internet ha un problema sistemico con il materiale pedopornografico che non è limitato a siti di nicchia o al dark web, ma si nasconde in bella vista tra i contenuti ospitati e controllati dai giganti della tecnologia. Dobbiamo fare di più per proteggere i bambini online e questa azione deve andare oltre le modifiche agli algoritmi o la disattivazione dei commenti.
Nel 2016, più di 57, 000 pagine web contenenti immagini di abusi sessuali su minori sono state monitorate dalla Internet Watch Foundation, un organismo con sede nel Regno Unito che identifica e rimuove tali contenuti illegali. Si tratta di un aumento del 21% rispetto all'anno precedente. Il National Center for Missing and Exploited Children con sede negli Stati Uniti ha ricevuto più di 10 milioni di segnalazioni di contenuti di abusi sessuali su minori nel 2017, un aumento del 22% rispetto ai 12 mesi precedenti. È probabile che queste iniziative, mentre molto necessario, stanno identificando e rimuovendo solo una piccola parte del contenuto che viene distribuito online ogni giorno.
Le immagini che mostrano abusi sui minori pubblicate online hanno un grave impatto su questi bambini abusati per anni o decenni dopo la fine dell'abuso fisico primario. I bambini maltrattati sono già stati vittime, ma la ricerca mostra che la disponibilità delle loro immagini online mantiene vivo l'incubo per il bambino, la loro famiglia e i loro amici. Può anche influenzare in modo significativo l'interazione di una vittima con Internet per il resto della sua vita.
Le aziende tecnologiche sono in una posizione unica per agire come guardiani della soglia rimuovendo e segnalando i contenuti sessualmente espliciti che vengono caricati sui loro servizi. Allora perché non fanno di più per proteggere in modo aggressivo milioni di bambini in tutto il mondo?
Anche agli albori del web, era chiaro che i servizi forniti dalle società tecnologiche venivano utilizzati per diffondere contenuti di abusi sessuali su minori. Già nel 1995, le chat room di AOL, una delle prime incarnazioni dei social media, sarebbero state utilizzate per condividere materiale pedopornografico. In risposta, I dirigenti di AOL all'epoca sostenevano che stavano facendo del loro meglio per contenere gli abusi sul loro sistema, ma che il loro sistema era troppo grande per essere gestito. Questa è esattamente la stessa scusa che sentiamo più di due decenni dopo dai titani della tecnologia.
Tra il 2003 e il 2008, nonostante le ripetute promesse di agire, le principali società tecnologiche non sono riuscite a sviluppare o utilizzare tecnologie in grado di individuare e rimuovere contenuti illegali o dannosi, anche se ha violato i loro termini di servizio. Poi nel 2009, Microsoft ha lavorato con il National Center for Missing and Exploited Children e un team del Dartmouth College che includeva uno di noi (Hany Farid) per sviluppare la tecnologia photoDNA. Questo software trova e rimuove rapidamente le istanze note di contenuto sessuale infantile mentre viene caricato, ed è stato fornito gratuitamente alle aziende tecnologiche partecipanti all'iniziativa.
Dopo anni di pressioni, photoDNA è ora utilizzato da molti servizi web e reti. Ma da allora le aziende tecnologiche non sono riuscite a innovare ulteriormente per rispondere a un mondo criminale sempre più sofisticato. Per esempio, nonostante si preveda l'aumento dei video sugli abusi sui minori, le aziende tecnologiche non hanno ancora implementato sistemi in grado di identificare filmati offensivi come photoDNA può fare per le immagini.
Queste aziende devono agire più rapidamente per bloccare e rimuovere immagini illegali, oltre a rispondere ad altre attività che consentono e incoraggiano lo sfruttamento minorile. Ciò significa sviluppare continuamente nuove tecnologie, ma anche fondamentalmente ripensando all'incentivo perverso di fare soldi dai contenuti degli utenti, indipendentemente da quale sia effettivamente il contenuto.
In piedi sulla via del controllo
Però, una combinazione di risorse finanziarie, questioni legali e filosofiche ostacolano le aziende tecnologiche che frenano le attività illegali sui loro servizi. In primo luogo, la rimozione di contenuti in molti casi è semplicemente dannosa per il business perché riduce le opportunità di entrate pubblicitarie e la raccolta di dati degli utenti (che possono anche essere venduti).
Nel frattempo, la legge spesso assolve le aziende tecnologiche dalla responsabilità per i contenuti che ospitano. Negli Stati Uniti, La sezione 230 del Communications Decency Act offre alle aziende tecnologiche un'ampia immunità dall'azione penale per le attività illegali dei loro utenti. Questa immunità si basa sulla classificazione di artisti come YouTube o Facebook come "piattaforme" benigne rispetto a "editori" attivi. La posizione nell'UE è simile. Cosa c'è di più, alcune aziende tecnologiche ritengono che l'attività illegale sia una responsabilità statale, piuttosto che aziendale.
Data la dimensione, ricchezza e portata dei giganti della tecnologia, queste scuse non giustificano l'inazione. Devono moderare in modo proattivo i contenuti e rimuovere le immagini illegali che sono state caricate sui loro siti. Potrebbero e dovrebbero aiutare a informare la ricerca in questo settore vitale della sicurezza dei bambini, lavorare con le forze dell'ordine e i ricercatori per indagare ed esporre la piaga degli abusi sui minori online.
Gli inserzionisti possono esercitare pressioni finanziarie per incoraggiare i siti a moderare e bloccare contenuti di terze parti illegali e offensivi (come hanno fatto diverse aziende in seguito agli ultimi fallimenti su YouTube). Ma questi boicottaggi raramente durano. Quindi, se la pressione pubblica non è sufficiente, potrebbe essere necessaria una regolamentazione del governo che costringa le aziende a rispettare i propri termini di servizio e le leggi locali.
Questo potrebbe essere difficile da controllare. Può avere conseguenze indesiderate, come rendere più difficile per le piccole imprese competere con gli attuali colossi della tecnologia. Oppure può incoraggiare le aziende a reagire in modo eccessivo e diventare eccessivamente restrittive sui contenuti consentiti. In quale caso, preferiremmo che le aziende tecnologiche sfruttassero la loro enorme ricchezza e risorse e facessero semplicemente la cosa giusta.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.