Credito:Unsplash/CC0 dominio pubblico
Né la disinformazione né l'intimidazione degli elettori sono qualcosa di nuovo. Ma gli strumenti sviluppati dalle principali aziende tecnologiche, tra cui Twitter, Facebook e Google ora consentono a queste tattiche di crescere drasticamente.
In qualità di studioso di cybersecurity e sicurezza elettorale, Ho sostenuto che queste aziende devono fare di più per tenere a freno la disinformazione, repressione digitale e soppressione degli elettori sulle loro piattaforme, anche trattando questi problemi come una questione di responsabilità sociale delle imprese.
All'inizio di questo autunno, Twitter ha annunciato nuove misure per contrastare la disinformazione, comprese false affermazioni sui rischi del voto per corrispondenza. Anche Facebook ha promesso di reprimere la disinformazione e l'intimidazione degli elettori sulla sua piattaforma, anche rimuovendo i post che incoraggiano le persone a monitorare i seggi elettorali.
Google ha abbandonato il dominio Proud Boys che l'Iran avrebbe usato per inviare messaggi a circa 25 persone, 000 democratici registrati che li hanno minacciati se non avessero cambiato partito e non avessero votato per Trump.
Ma tale autoregolamentazione, mentre utile, può andare solo così lontano. È giunto il momento per gli Stati Uniti di imparare dalle esperienze di altre nazioni e ritenere le aziende tecnologiche responsabili di garantire che le loro piattaforme non vengano utilizzate in modo improprio per minare le basi democratiche del paese.
Intimidazione degli elettori
Il 20 ottobre democratici registrati in Florida, uno stato di oscillazione cruciale, e Alaska ha iniziato a ricevere e-mail presumibilmente dal gruppo di estrema destra Proud Boys. I messaggi erano pieni di minacce fino a, incluse violente rappresaglie, se il destinatario non avesse votato per il presidente Trump e non avesse cambiato la propria affiliazione di partito in repubblicano.
Meno di 24 ore dopo, il 21 ottobre Il direttore dell'intelligence nazionale degli Stati Uniti John Ratcliffe e il direttore dell'FBI Christopher Wray hanno tenuto un briefing in cui hanno pubblicamente attribuito questo tentativo di intimidazione degli elettori all'Iran. Questo verdetto è stato successivamente corroborato da Google, che ha anche affermato che oltre il 90% di questi messaggi è stato bloccato dai filtri antispam.
Secondo quanto riferito, il rapido tempismo dell'attribuzione era il risultato della natura straniera della minaccia e del fatto che si stava avvicinando così tanto al giorno delle elezioni. Ma è importante notare che questo è solo l'ultimo esempio di tale intimidazione degli elettori. Altri incidenti recenti includono uno schema di chiamate robotizzate che prende di mira città in gran parte afroamericane come Detroit e Cleveland.
Non è chiaro quanti di questi messaggi abbiano effettivamente raggiunto gli elettori e come a loro volta queste minacce abbiano cambiato il comportamento degli elettori. Ci sono alcune prove che tali tattiche possono ritorcersi contro e portare a tassi di affluenza più elevati nella popolazione bersaglio.
Disinformazione sui social
Le campagne di disinformazione efficaci in genere hanno tre componenti:
Una testata giornalistica sponsorizzata dallo stato per dare origine alla fabbricazione Fonti di media alternative disposte a diffondere la disinformazione senza controllare adeguatamente i fatti sottostanti "agenti di influenza" consapevoli o inconsapevoli:cioè, persone per far avanzare la storia in altri punti vendita
L'avvento del cyberspazio ha sovraccaricato il processo di disinformazione, sia accelerando la diffusione virale delle storie attraverso i confini e le piattaforme nazionali con facilità sia causando una proliferazione nei tipi di media tradizionali e social disposti a correre con storie false.
Ad oggi, le principali società di social media hanno adottato un approccio in gran parte frammentario e frammentario per gestire questo problema complesso. Twitter ha annunciato il divieto di annunci politici durante la stagione elettorale degli Stati Uniti del 2020, in parte per i timori di consentire la diffusione della disinformazione. Facebook ha optato per un divieto più limitato di nuovi annunci politici una settimana prima delle elezioni.
Gli Stati Uniti non hanno un equivalente della legge francese che escluda qualsiasi discorso influente il giorno prima delle elezioni.
Effetti e vincoli
Gli impatti di questi sforzi sono stati attenuati, in parte a causa della prevalenza di social bot che diffondono in modo virale informazioni a bassa credibilità su queste piattaforme. Non esistono dati completi sulla quantità totale di disinformazione o su come colpisce gli utenti.
Alcuni studi recenti fanno luce, anche se. Per esempio, uno studio del 2019 ha rilevato che un numero molto ridotto di utenti di Twitter rappresentava la stragrande maggioranza dell'esposizione alla disinformazione.
Le piattaforme tecnologiche sono costrette a fare di più da diverse forze. Questi includono la paura di pregiudizi politici percepiti e una forte convinzione tra molti, tra cui Mark Zuckerberg, in una robusta interpretazione della libertà di parola. Una preoccupazione correlata delle società di piattaforme è che più sono percepite come media gatekeeper, più è probabile che debbano affrontare una nuova regolamentazione.
Le società della piattaforma sono anche limitate dalle tecnologie e dalle procedure che utilizzano per combattere la disinformazione e l'intimidazione degli elettori. Per esempio, Secondo quanto riferito, lo staff di Facebook ha dovuto intervenire manualmente per limitare la diffusione di un articolo del New York Post sul computer portatile di Hunter Biden che potrebbe essere parte di una campagna di disinformazione. Ciò evidenzia come le società della piattaforma stiano recuperando terreno nel contrastare la disinformazione e debbano dedicare più risorse allo sforzo.
Opzioni normative
C'è un crescente consenso bipartisan sul fatto che si debba fare di più per frenare gli eccessi dei social media e per gestire meglio le doppie questioni dell'intimidazione degli elettori e della disinformazione. Nelle ultime settimane, abbiamo già visto il Dipartimento di Giustizia degli Stati Uniti aprire un nuovo caso antitrust contro Google, quale, anche se non è correlato alla disinformazione, può essere inteso come parte di una più ampia campagna per regolamentare questi colossi.
Un altro strumento a disposizione del governo degli Stati Uniti è la revisione, o addirittura revocando, Sezione 230 del Communications Decency Act degli anni '90. Questa legge è stata progettata per proteggere le aziende tecnologiche mentre si sviluppavano dalla responsabilità per il contenuto che gli utenti pubblicano sui loro siti. Molti, compreso l'ex vicepresidente Joe Biden, sostenere che è sopravvissuto alla sua utilità.
Un'altra opzione da considerare è imparare dall'approccio dell'UE. Nel 2018, la Commissione europea è riuscita a convincere le aziende tecnologiche ad adottare il "Codice di condotta sulla disinformazione, ", che ha impegnato queste aziende ad aumentare la "trasparenza sulla pubblicità politica e basata sui problemi". queste misure per combattere la disinformazione, e il relativo sistema di allarme rapido dell'UE, finora non sono stati in grado di arginare l'ondata di queste minacce.
Anziché, ci sono crescenti richieste di approvare una serie di riforme per garantire che le piattaforme pubblicizzino informazioni accurate, proteggere le fonti di informazioni accurate attraverso requisiti di sicurezza informatica migliorati e monitorare la disinformazione in modo più efficace. Le aziende tecnologiche, in particolare, potrebbero fare di più per rendere più facile segnalare la disinformazione, contattare gli utenti che hanno interagito con tali contenuti con un avviso e rimuovere le informazioni false sul voto, come hanno iniziato a fare Facebook e Twitter.
Tali passaggi sono solo un inizio. Ognuno ha un ruolo nel rendere la democrazia più difficile da hackerare, ma le piattaforme tecnologiche che hanno fatto così tanto per contribuire a questo problema hanno il dovere di affrontarlo.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.