Come ti senti su Facebook? Credito:fyv6561/Shutterstock.com
L'algoritmo del feed di notizie di Facebook determina ciò che gli utenti vedono sulla sua piattaforma, dai meme divertenti ai commenti degli amici. L'azienda aggiorna regolarmente questo algoritmo, che può cambiare drasticamente le informazioni che le persone consumano.
Con l'avvicinarsi delle elezioni del 2020, c'è molta preoccupazione pubblica che ciò che è stato soprannominato "ingerenza russa" nelle elezioni presidenziali del 2016 possa ripetersi. Ma ciò che non sta ricevendo abbastanza attenzione è il ruolo che giocano i cambiamenti dell'algoritmo di Facebook, intenzionalmente o no, in quel tipo di ingerenza.
Un contrappunto chiave alla campagna di disinformazione russa è stato il giornalismo fattuale da fonti affidabili, che ha raggiunto molti dei loro lettori su Facebook e altre piattaforme di social media. Come ricercatore ed educatore sui social media, Vedo prove che le modifiche all'algoritmo del feed di notizie di Facebook hanno soppresso l'accesso degli utenti a un giornalismo credibile nel periodo precedente l'elezione di Trump.
Gli operatori politici sanno che Facebook funge da custode delle diete informative di oltre 200 milioni di americani e 2 miliardi di utenti in tutto il mondo. Le azioni e gli abusi da parte di altri sulle piattaforme hanno generato molta preoccupazione e discussione pubblica, inclusa la quantità di disinformazione e propaganda che gli americani hanno visto prima delle elezioni. Quello di cui non si è parlato abbastanza è l'effetto che i cambiamenti algoritmici di Facebook hanno avuto sull'accesso alle notizie e alla democrazia.
Cambiare il sistema
A metà 2015, Facebook ha introdotto un importante cambiamento nell'algoritmo che ha allontanato i lettori dal giornalismo e dalle notizie, per fornire più aggiornamenti dai loro amici e familiari. Il cambiamento è stato espresso in un linguaggio amichevole, suggerendo che Facebook stava cercando di assicurarsi che gli utenti non perdessero le storie degli amici. Ma i dati sui social media mostrano che uno degli effetti del cambiamento è stato quello di ridurre il numero di interazioni che gli utenti di Facebook hanno avuto con organi di stampa credibili.
A pochi mesi dalle elezioni del 2016, un cambiamento di algoritmo ancora più grande nei confronti dei post di amici e familiari ha avuto un secondo tributo sul traffico degli editori. Un'ampia gamma di editori di notizie ha scoperto che i loro contenuti erano significativamente meno visibili agli utenti di Facebook.
Esaminando i numeri
Nella mia ricerca, Ho esaminato il coinvolgimento di Facebook per i principali organi di stampa che circondano le elezioni del 2016. Le mie scoperte supportano le conclusioni di altri secondo cui l'algoritmo di Facebook ha notevolmente soppresso il coinvolgimento del pubblico con questi editori.
Dati da CrowdTangle, una società di monitoraggio dei social media, mostra che il traffico di Facebook è diminuito notevolmente alla CNN, ABC, NBC, CBS, Fox News, Il New York Times e il Washington Post dopo che la società ha aggiornato i suoi algoritmi per favorire amici e familiari nel giugno 2016.
Ciò dimostra che l'algoritmo ha funzionato nel modo in cui è stato progettato per funzionare, ma sono preoccupato che i principali editori statunitensi siano stati soppressi in questo modo. L'interesse degli elettori per le elezioni presidenziali è stato maggiore nel 2016 rispetto ai due decenni precedenti, e la disinformazione era dilagante. I cambiamenti di Facebook hanno significato che le principali organizzazioni di notizie di tutto lo spettro politico hanno avuto difficoltà a spargere la voce su notizie e rapporti elettorali credibili.
campanelli d'allarme
Facebook era a conoscenza delle preoccupazioni sul suo algoritmo anche prima delle elezioni. Uno degli ingegneri di Facebook ha segnalato questi potenziali effetti delle modifiche all'algoritmo di Facebook nel luglio 2015. Tre mesi dopo, mentore di Zuckerberg, Roger McNamee, ha anche tentato di avvisare Zuckerberg e i dirigenti di Facebook che la piattaforma veniva utilizzata per manipolare le informazioni sulle elezioni.
Subito dopo le elezioni, la ricerca del giornalista Craig Silverman su BuzzFeed ha mostrato che le notizie false sulle elezioni hanno superato le "notizie vere". Alla fine del 2018, La dichiarazione della società di Facebook ha rivelato problemi con il modo in cui il suo algoritmo ha premiato "contenuti limite" che erano sensazionali e provocatori, come gran parte delle notizie iperpartigiane che andavano avanti prima delle elezioni.
Una ricerca più recente dello Shorenstein Center di Harvard mostra che il traffico di Facebook ha continuato a diminuire in modo significativo per gli editori dopo un'ulteriore modifica dell'algoritmo di Facebook nel gennaio 2018.
Il prof. Grygiel chiede trasparenza algoritmica su MSNBC.
Trasparenza algoritmica
Ad oggi, la ricerca su come funziona l'algoritmo di Facebook è stata limitata dalla mancanza di accesso ai suoi meccanismi interni proprietari. Non è sufficiente indagare sugli effetti dei cambiamenti nel News Feed di Facebook. Credo sia importante capire perché sono accaduti, pure, e considerare più direttamente le decisioni aziendali di Facebook e il modo in cui influiscono sulla democrazia.
Recenti approfondimenti sui processi interni dell'azienda suggeriscono che Facebook sta iniziando a comprenderne il potere. A luglio 2019, Bloomberg News ha rivelato che la società ha implementato un software sulla propria piattaforma per cercare post che ritraessero Facebook stesso in modi potenzialmente fuorvianti, riducendone la visibilità per salvaguardare la reputazione dell'azienda.
Alcuni giuristi internazionali hanno iniziato a chiedere leggi per proteggere le democrazie dalla possibilità che la manipolazione algoritmica possa portare a guadagni elettorali. Non ci sono prove che i cambiamenti di Facebook avessero intenzioni politiche, ma non è difficile immaginare che l'azienda possa modificare i suoi algoritmi in futuro, se volesse.
Per difendersi da quel potenziale, nuove leggi potrebbero impedire modifiche all'algoritmo nei periodi di preparazione prima delle elezioni. Nel settore finanziario, ad esempio, "periodi di quiete" prima dei principali annunci aziendali cercano di impedire che gli sforzi di marketing e di pubbliche relazioni influenzino artificialmente i prezzi delle azioni.
Protezioni simili per gli algoritmi contro la manipolazione aziendale potrebbero aiutare a garantire che politicamente attivi, i dirigenti di Facebook in cerca di potere, o qualsiasi altra società con un controllo significativo sull'accesso alle informazioni degli utenti, non possono utilizzare i loro sistemi per modellare l'opinione pubblica o il comportamento di voto.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.