Credito:Unsplash/CC0 di dominio pubblico
Il recente avvertimento del governo australiano a Facebook sulla disinformazione è solo l'ultima salva nella battaglia apparentemente costante per costringere il gigante dei social media a rendere conto dei contenuti pubblicati sulla sua piattaforma.
È arrivata la stessa settimana in cui il Senato degli Stati Uniti ha ascoltato una testimonianza di denuncia in cui l'ex dirigente di Facebook Frances Haugen ha affermato che la società era a conoscenza di conseguenze dannose per i suoi utenti ma ha scelto di non agire.
I governi di tutto il mondo spingono da anni per rendere i giganti dei social media più responsabili, sia in termini di qualità delle informazioni che ospitano, sia in termini di utilizzo dei dati degli utenti come parte dei loro modelli di business.
L'Online Safety Act del governo australiano entrerà in vigore nel gennaio 2022, conferendo all'eSafety Commissioner poteri senza precedenti per reprimere i contenuti offensivi o violenti o le immagini sessuali pubblicate senza consenso.
Ma anche in caso di successo, questa legislazione tratterà solo una piccola parte delle questioni che richiedono una regolamentazione. Su molti di questi problemi, le piattaforme dei social media hanno tentato di autoregolamentarsi piuttosto che sottomettersi alla legislazione. Ma sia che si parli di legislazione o di autoregolamentazione, le esperienze passate non generano molta fiducia nel fatto che le piattaforme tecnologiche possano essere regolate con successo e la regolamentazione possa essere messa in atto facilmente.
La nostra ricerca ha esaminato i precedenti tentativi di regolamentare i giganti della tecnologia in Australia. Abbiamo analizzato 269 articoli dei media e 282 documenti politici e rapporti di settore pubblicati dal 2015 al 2021. Discutiamo un paio di casi di studio rilevanti.
1. Annunci e notizie
Nel 2019, l'indagine dell'Australian Competition and Consumer Commission (ACCC) sulle piattaforme digitali ha descritto gli algoritmi di Facebook, in particolare quelli che determinano il posizionamento della pubblicità sulle pagine di Facebook, come "opachi". Ha concluso che le società di media avevano bisogno di maggiori garanzie sull'uso dei loro contenuti.
Facebook inizialmente ha accolto favorevolmente l'indagine, ma poi si è opposto pubblicamente (insieme a Google) quando il governo ha sostenuto che i problemi relativi al notevole potere di mercato di Facebook nella pubblicità display e al dominio di Facebook e Google sui contenuti di notizie generati dalle società di media erano troppo importanti per essere lasciato alle aziende stesse.
Facebook ha affermato che non c'erano prove di uno squilibrio del potere contrattuale tra esso e le società di media, aggiungendo che non avrebbe avuto altra scelta che ritirare i servizi di notizie in Australia se fosse stato costretto a pagare gli editori per l'hosting dei loro contenuti. La situazione di stallo ha portato al famigerato embargo di una settimana di Facebook sulle notizie australiane.
Il codice di contrattazione dei media di notizie riveduto e modificato è stato approvato dal parlamento a febbraio. Sia il governo che Facebook hanno dichiarato la vittoria, il primo essendo riuscito ad approvare la sua legislazione, e il secondo finendo per stringere accordi con gli editori di notizie senza dover essere legalmente vincolato al codice.
2. Incitamento all'odio e terrorismo
Nel 2015, per affrontare l'estremismo violento sui social media, il governo australiano ha inizialmente collaborato con il gigante tecnologico per sviluppare soluzioni di intelligenza artificiale congiunte per migliorare i processi tecnici di identificazione dei contenuti per contrastare l'estremismo violento.
Questa soluzione volontaria ha funzionato brillantemente, fino a quando non ha funzionato. Nel marzo 2019, le sparatorie di massa nelle moschee di Christchurch sono state trasmesse in live streaming su Facebook da un terrorista suprematista bianco di origine australiana e le registrazioni sono successivamente circolate su Internet.
Ciò ha portato alla luce l'incapacità degli algoritmi di intelligenza artificiale di Facebook di rilevare e rimuovere il filmato dal vivo delle riprese e la velocità con cui è stato condiviso sulla piattaforma.
Il governo australiano ha risposto nel 2019 modificando il codice penale per richiedere alle piattaforme di social media di rimuovere materiale ripugnante o violento "in tempi ragionevoli" e, se del caso, deferirlo alla polizia federale australiana.
Cosa abbiamo imparato?
Questi due esempi, sebbene sorprendentemente diversi, si sono svolti entrambi in modo simile:un dialogo iniziale in cui Facebook propone una soluzione interna che coinvolge i propri algoritmi, prima di un successivo passaggio verso una regolamentazione governativa obbligatoria, che incontra resistenze o contrattazioni (o entrambi) da Facebook, e il risultato finale che è una legislazione frammentaria che è annacquata o copre solo un sottoinsieme di tipi specifici di danno.
Ci sono diversi problemi evidenti con questo. Il primo è che solo i giganti della tecnologia stessi sanno come funzionano i loro algoritmi, quindi è difficile per i regolatori controllarli correttamente.
Poi c'è il fatto che la legislazione si applica in genere a livello nazionale, eppure Facebook è un'azienda globale con miliardi di utenti in tutto il mondo e una piattaforma che è incorporata nella nostra vita quotidiana in tutti i modi.
Come risolviamo l'impasse? Un'opzione è che i regolamenti siano elaborati da organismi indipendenti nominati da governi e giganti della tecnologia per guidare l'agenda di coregolamentazione a livello globale. Ma fare affidamento solo sulla regolamentazione per guidare il comportamento dei giganti della tecnologia contro potenziali abusi potrebbe non essere sufficiente. C'è anche la necessità di autodisciplina e di un'appropriata governance aziendale, potenzialmente rafforzata da questi organismi indipendenti.