Il governo britannico ha detto lunedì che esplorerà la responsabilità personale dei dirigenti dei social media per i contenuti dannosi pubblicati sulle loro piattaforme, in una serie di nuove proposte di sicurezza online.
I piani svelati in un policy paper, che includono anche la creazione di un regolatore indipendente, mirano ad affrontare tutti i tipi di contenuti dannosi, dall'incoraggiare la violenza e il suicidio alla diffusione della disinformazione e del cyberbullismo.
La questione ha acquisito ulteriore urgenza con l'incapacità di Facebook di interrompere immediatamente i livestream di un attacco del 15 marzo da parte di un sedicente suprematista bianco su due moschee in Nuova Zelanda che ha ucciso 50 persone.
Il primo ministro Theresa May ha avvertito le aziende tecnologiche di "non aver fatto abbastanza" per proteggere gli utenti e che il suo governo intendeva imporre "un obbligo legale di diligenza" alle aziende "per mantenere le persone al sicuro".
"Per troppo tempo queste aziende non hanno fatto abbastanza per proteggere gli utenti, soprattutto bambini e ragazzi, da contenuti dannosi, ", ha detto in una nota.
"Questo non è abbastanza buono, ed è ora di fare le cose in modo diverso.
"Le aziende online devono iniziare ad assumersi la responsabilità delle loro piattaforme, e contribuire a ripristinare la fiducia del pubblico in questa tecnologia".
Le nuove leggi previste si applicheranno a qualsiasi azienda che consenta agli utenti di condividere o scoprire contenuti generati dagli utenti o interagire tra loro online.
Ciò includerà siti di file hosting e forum di chat, nonché le più note piattaforme di social media, servizi di messaggistica e motori di ricerca.
Le aziende potrebbero subire pesanti sanzioni per il mancato rispetto degli standard.
"Stiamo consultando i poteri per emettere sanzioni sostanziali, bloccare l'accesso ai siti e potenzialmente imporre responsabilità ai singoli membri dell'alta dirigenza, " ha detto il governo.
Sotto le proposte, un nuovo regolatore avrebbe il potere di costringere le piattaforme e altri a pubblicare rapporti di trasparenza annuali.
Includerebbero i livelli di contenuti dannosi diffusi sui loro siti e il modo in cui hanno affrontato il problema.
Il regolatore sarà anche in grado di emettere codici di condotta, che potrebbero obbligare le aziende a soddisfare determinati requisiti, come l'assunzione di fact-checker, soprattutto durante i periodi elettorali.
"L'era dell'autoregolamentazione per le aziende online è finita, "Il segretario al digitale Jeremy Wright ha dichiarato:aggiungendo che voleva che il settore fosse "parte della soluzione".
"Coloro che non riescono a farlo dovranno affrontare un'azione dura, " ha giurato.
I fautori di regolamenti più severi sui social media hanno accolto con favore le proposte.
"Per troppo tempo i social network non sono riusciti a dare priorità alla sicurezza dei bambini e li hanno lasciati esposti all'adescamento, abuso, e contenuti dannosi, " ha detto Peter Wanless, capo della Società nazionale per la prevenzione della crudeltà sui bambini.
"È giunto il momento che siano costretti ad agire attraverso questo dovere legalmente vincolante di proteggere i bambini, sostenuto con pesanti punizioni se non lo fanno."
© 2019 AFP