Credito:Ecole Polytechnique Federale de Lausanne
Gli algoritmi vengono utilizzati per personalizzare il nostro feed di notizie sui social media. Ma il rischio è che i punti di vista che ci vengono presentati diventino sempre più limitati ed estremi. I ricercatori dell'EPFL hanno sviluppato una soluzione che renderebbe più equilibrato il contenuto personalizzato degli utenti, e il loro progetto ha già suscitato interesse tra gli attivisti per i diritti umani.
Quando fai clic su un collegamento piuttosto che su un altro, la tua scelta influenzerà il contenuto che ti verrà mostrato da vari siti web più avanti. Gli algoritmi utilizzati dalle piattaforme di social media come Facebook apprendono quali sono le nostre preferenze e forniscono sempre più contenuti che corrispondono ai nostri interessi. Il rischio è che non ci venga mai mostrato nulla che vada contro le nostre opinioni, e questo può distorcere la nostra visione del mondo. "Selezionando sempre più attentamente ciò che vediamo, questi algoritmi stanno distorcendo la realtà. Le piattaforme di social media diventano effettivamente camere di risonanza in cui le opinioni possono diventare sempre più estreme, " spiega Elisa Celis, ricercatore senior presso la School of Computer and Communication Sciences (IC) dell'EPFL.
E questo può avere un impatto sul lettore. "Numerosi studi hanno dimostrato che se sei indeciso su qualcosa, la tua decisione sarà in definitiva influenzata dalla frequenza e dall'ordine in cui ti vengono presentate le informazioni. Quindi questi algoritmi possono effettivamente modellare la tua opinione sulla base di dati distorti, " dice Celis. In risposta a questo problema, Celis ha lavorato con Nisheeth Vishnoi, professore presso la School of Computer and Communication Sciences (IC) dell'EPFL, sviluppare un sistema per impedire agli utenti di ricevere contenuti totalmente unilaterali.
Un algoritmo altrettanto efficace
Hanno progettato un algoritmo che può essere modificato per garantire che agli utenti venga mostrata una quantità minima di contenuti diversi. "Una piattaforma di social media potrebbe, ad esempio, scegliere di avere visualizzazioni che si oppongono a quelle dell'utente che costituiscono almeno il 10 percento del newsfeed per garantire che la visione del mondo dell'utente rimanga più equilibrata, " spiegano i ricercatori. L'algoritmo potrebbe essere facilmente integrato nei sistemi attuali. La sfida principale è coinvolgere le grandi aziende. "Per piattaforme come Facebook, questi algoritmi devono essere efficaci per generare entrate pubblicitarie. Abbiamo voluto dimostrare che è possibile creare un algoritmo altrettanto efficace ma che permetta di personalizzare i contenuti in maniera più equa ed equilibrata, " spiega Vishnoi.
La sensibilizzazione dei governi su questo problema sarà un fattore chiave quando si tratta di colmare il vuoto legislativo in questo settore. Diverse organizzazioni per i diritti umani hanno già mostrato interesse per il progetto dei ricercatori, che hanno recentemente presentato ai delegati delle agenzie per i diritti umani a Ginevra, anche ai membri dell'Ufficio delle Nazioni Unite dell'Alto Commissario per i diritti umani. "Questi algoritmi sono attualmente totalmente non regolamentati perché l'impatto del pregiudizio che generano non è ancora stato compreso adeguatamente. Come cittadino, Mi sento impotente perché non ho alcun controllo sul contenuto che vedo. Lo stato attuale delle cose potrebbe rivelarsi alquanto pericoloso per la democrazia. Abbiamo davvero bisogno di cercare soluzioni alternative, "aggiunge Vishnoi.