Credito:la conversazione
Facebook ha sperimentato silenziosamente per ridurre la quantità di contenuti politici che inserisce nei feed di notizie degli utenti. La mossa è un tacito riconoscimento che il modo in cui funzionano gli algoritmi dell'azienda può essere un problema.
Il nocciolo della questione è la distinzione tra provocare una risposta e fornire i contenuti che le persone desiderano. Gli algoritmi dei social media, le regole seguite dai loro computer per decidere il contenuto che vedi, si basano fortemente sul comportamento delle persone per prendere queste decisioni. In particolare, controllano i contenuti a cui le persone rispondono o "interessano" mettendo mi piace, commentando e condividendo.
Come scienziato informatico che studia i modi in cui un gran numero di persone interagiscono usando la tecnologia, capisco la logica dell'uso della saggezza della folla in questi algoritmi. Vedo anche sostanziali insidie nel modo in cui le società di social media lo fanno nella pratica.
Dai leoni della savana ai Mi piace su Facebook
Il concetto di saggezza delle folle presuppone che l'utilizzo dei segnali delle azioni, delle opinioni e delle preferenze degli altri come guida porti a decisioni sane. Ad esempio, le previsioni collettive sono normalmente più accurate di quelle individuali. L'intelligenza collettiva viene utilizzata per prevedere mercati finanziari, sport, elezioni e persino focolai di malattie.
Nel corso di milioni di anni di evoluzione, questi principi sono stati codificati nel cervello umano sotto forma di pregiudizi cognitivi che vengono con nomi come familiarità, mera esposizione ed effetto carrozzone. Se tutti iniziano a correre, dovresti iniziare a correre anche tu; forse qualcuno ha visto un leone arrivare e correre potrebbe salvarti la vita. Potresti non sapere perché, ma è più saggio porre domande in seguito.
Il tuo cervello raccoglie indizi dall'ambiente, compresi i tuoi coetanei, e usa semplici regole per tradurre rapidamente quei segnali in decisioni:vai con il vincitore, segui la maggioranza, copia il tuo vicino. Queste regole funzionano molto bene in situazioni tipiche perché si basano su solide ipotesi. Ad esempio, presumono che le persone spesso agiscano in modo razionale, è improbabile che molti abbiano torto, il passato predice il futuro e così via.
La tecnologia consente alle persone di accedere ai segnali di un numero molto maggiore di altre persone, la maggior parte delle quali non conoscono. Le applicazioni di intelligenza artificiale fanno un uso massiccio di questi segnali di popolarità o "coinvolgimento", dalla selezione dei risultati dei motori di ricerca alla raccomandazione di musica e video, dal suggerimento di amici alla classifica dei post nei feed di notizie.
Non tutto ciò che è virale merita di essere
La nostra ricerca mostra che praticamente tutte le piattaforme tecnologiche web, come i social media e i sistemi di raccomandazione delle notizie, hanno un forte pregiudizio di popolarità. Quando le applicazioni sono guidate da segnali come il coinvolgimento piuttosto che da query esplicite sui motori di ricerca, il bias di popolarità può portare a conseguenze dannose e indesiderate.
I social media come Facebook, Instagram, Twitter, YouTube e TikTok fanno molto affidamento sugli algoritmi dell'IA per classificare e consigliare i contenuti. Questi algoritmi prendono come input ciò che "ti piace", commentano e condividono, in altre parole, i contenuti con cui interagisci. L'obiettivo degli algoritmi è massimizzare il coinvolgimento scoprendo cosa piace alle persone e posizionandolo in cima ai loro feed.
In apparenza questo sembra ragionevole. Se alle persone piacciono le notizie credibili, le opinioni di esperti e i video divertenti, questi algoritmi dovrebbero identificare contenuti di tale qualità. Ma la saggezza della folla qui fa un presupposto chiave:che raccomandare ciò che è popolare aiuterà i contenuti di alta qualità a "ribollire".
Abbiamo verificato questa ipotesi studiando un algoritmo che classifica gli articoli utilizzando un mix di qualità e popolarità. Abbiamo scoperto che, in generale, è più probabile che il bias di popolarità riduca la qualità complessiva dei contenuti. Il motivo è che il coinvolgimento non è un indicatore affidabile di qualità quando poche persone sono state esposte a un oggetto. In questi casi, l'impegno genera un segnale rumoroso ed è probabile che l'algoritmo amplifichi questo rumore iniziale. Una volta che la popolarità di un articolo di bassa qualità è abbastanza grande, continuerà ad essere amplificata.
Gli algoritmi non sono l'unica cosa influenzata dal pregiudizio di coinvolgimento, possono influenzare anche le persone. Le prove mostrano che le informazioni vengono trasmesse tramite "contagio complesso", il che significa che più volte qualcuno è esposto a un'idea online, più è probabile che la adotti e la ricondivida. Quando i social media dicono alle persone che un articolo sta diventando virale, i loro pregiudizi cognitivi si attivano e si traducono nell'irresistibile bisogno di prestare attenzione ad esso e condividerlo.
Folla poco saggia
Di recente abbiamo condotto un esperimento utilizzando un'app di alfabetizzazione giornalistica chiamata Fakey. È un gioco sviluppato dal nostro laboratorio, che simula un feed di notizie come quelli di Facebook e Twitter. I giocatori vedono un mix di articoli attuali da notizie false, scienza spazzatura, fonti iper-partigiane e cospirative, nonché fonti tradizionali. Ottengono punti per aver condiviso o apprezzato notizie da fonti affidabili e per aver segnalato articoli a bassa credibilità per la verifica dei fatti.
Abbiamo scoperto che è più probabile che i giocatori apprezzino o condividano e meno propensi a segnalare articoli da fonti a bassa credibilità quando i giocatori possono vedere che molti altri utenti hanno interagito con quegli articoli. L'esposizione alle metriche di coinvolgimento crea quindi una vulnerabilità.
La saggezza della folla fallisce perché si basa sul falso presupposto che la folla sia composta da fonti diverse e indipendenti. Ci possono essere diversi motivi per cui non è così.
Primo, a causa della tendenza delle persone ad associarsi con persone simili, i loro quartieri online non sono molto diversi. La facilità con cui un utente di social media può non essere amico di coloro con cui non è d'accordo spinge le persone in comunità omogenee, spesso denominate camere dell'eco.
Secondo, poiché gli amici di molte persone sono amici l'uno dell'altro, si influenzano a vicenda. Un famoso esperimento ha dimostrato che sapere quale musica piace ai tuoi amici influisce sulle tue preferenze dichiarate. Il tuo desiderio sociale di conformarti distorce il tuo giudizio indipendente.
Terzo, i segnali di popolarità possono essere giocati. Nel corso degli anni, i motori di ricerca hanno sviluppato tecniche sofisticate per contrastare le cosiddette "link farm" e altri schemi per manipolare gli algoritmi di ricerca. Le piattaforme di social media, d'altra parte, stanno appena iniziando a conoscere le proprie vulnerabilità.
Le persone che mirano a manipolare il mercato dell'informazione hanno creato account falsi, come troll e social bot, e organizzato reti false. Hanno invaso la rete per creare l'impressione che una teoria del complotto o un candidato politico siano popolari, ingannando contemporaneamente sia gli algoritmi della piattaforma che i pregiudizi cognitivi delle persone. Hanno persino alterato la struttura dei social network per creare illusioni sulle opinioni della maggioranza.
Ridurre il coinvolgimento
Cosa fare? Le piattaforme tecnologiche sono attualmente sulla difensiva. Stanno diventando più aggressivi durante le elezioni nel rimuovere gli account falsi e la disinformazione dannosa. Ma questi sforzi possono essere simili a un gioco a colpi di talpa.
Un approccio diverso e preventivo sarebbe quello di aggiungere attrito. In altre parole, per rallentare il processo di diffusione delle informazioni. I comportamenti ad alta frequenza come il gradimento e la condivisione automatizzati potrebbero essere inibiti dai test o dalle tariffe CAPTCHA. Ciò non solo ridurrebbe le opportunità di manipolazione, ma con meno informazioni le persone sarebbero in grado di prestare maggiore attenzione a ciò che vedono. Lascerebbe meno spazio ai bias di coinvolgimento per influenzare le decisioni delle persone.
Sarebbe anche d'aiuto se le società di social media adattassero i loro algoritmi per fare meno affidamento sul coinvolgimento per determinare il contenuto che ti servono.