Credito:Mr Tempter/Shutterstock
YouTube crea estremisti? Un recente studio ha causato discussioni tra gli scienziati sostenendo che gli algoritmi che alimentano il sito non aiutano a radicalizzare le persone raccomandando video sempre più estremi, come suggerito negli ultimi anni.
La carta, presentato alla rivista ad accesso aperto First Monday ma ancora da sottoporre a revisione formale tra pari, ha analizzato i consigli video ricevuti da diversi tipi di canali. Ha affermato che l'algoritmo di YouTube favorisce i canali multimediali tradizionali rispetto ai contenuti indipendenti, concludendo che la radicalizzazione ha più a che fare con le persone che creano contenuti dannosi che con l'algoritmo del sito.
Gli specialisti del settore sono stati rapidi nel rispondere allo studio, con alcuni che criticano i metodi del documento e altri che sostengono che l'algoritmo è stato uno dei numerosi fattori importanti e che la scienza dei dati da sola non ci darà la risposta.
Il problema con questa discussione è che non possiamo davvero rispondere alla domanda su quale ruolo gioca l'algoritmo di YouTube nel radicalizzare le persone perché non capiamo come funziona. E questo è solo un sintomo di un problema molto più ampio. Questi algoritmi giocano un ruolo sempre più importante nella nostra vita quotidiana ma mancano di qualsiasi tipo di trasparenza.
È difficile sostenere che YouTube non abbia un ruolo nella radicalizzazione. Questo è stato sottolineato per la prima volta dal sociologo della tecnologia Zeynep Tufekci, che hanno illustrato come i video consigliati spingano gradualmente gli utenti verso contenuti più estremi. Nelle parole di Tufekci, video sul jogging portano a video sulla corsa di ultramaratone, video sui vaccini portano a teorie del complotto, e i video sulla politica portano a "negazioni dell'Olocausto e altri contenuti inquietanti".
Questo è stato anche scritto in dettaglio dall'ex dipendente di YouTube Guillaume Chaslot che ha lavorato all'algoritmo di raccomandazione del sito. Da quando ha lasciato l'azienda, Chaslot ha continuato a cercare di rendere tali raccomandazioni più trasparenti. Dice che i consigli di YouTube sono prevenuti verso teorie della cospirazione e video di fatto imprecisi, che tuttavia inducono le persone a trascorrere più tempo sul sito.
Infatti, massimizzare il tempo di visualizzazione è il punto centrale degli algoritmi di YouTube, e questo incoraggia i creatori di video a lottare per attirare l'attenzione in ogni modo possibile. L'assoluta mancanza di trasparenza dell'azienda su come funziona esattamente rende quasi impossibile combattere la radicalizzazione sul sito. Dopotutto, senza trasparenza, è difficile sapere cosa si può cambiare per migliorare la situazione.
Ma YouTube non è insolito in questo senso. Una mancanza di trasparenza su come funzionano gli algoritmi si verifica di solito ogni volta che vengono utilizzati in sistemi di grandi dimensioni, sia da aziende private che da enti pubblici. Oltre a decidere quale video mostrarti dopo, gli algoritmi di apprendimento automatico sono ora utilizzati per collocare i bambini nelle scuole, decidere sulle pene detentive, determinare punteggi di credito e tassi di assicurazione, così come il destino degli immigrati, candidati al lavoro e candidati universitari. E di solito non capiamo come questi sistemi prendono le loro decisioni.
I ricercatori hanno trovato modi creativi per mostrare l'impatto di questi algoritmi sulla società, sia esaminando l'ascesa della destra reazionaria o la diffusione di teorie del complotto su YouTube, o mostrando come i motori di ricerca riflettono i pregiudizi razzisti delle persone che li creano.
I sistemi di apprendimento automatico sono generalmente grandi, complesso, e opaco. opportunamente, sono spesso descritti come scatole nere, dove entrano le informazioni, e vengono fuori informazioni o azioni, ma nessuno può vedere cosa succede nel mezzo. Ciò significa che, poiché non sappiamo esattamente come funzionano gli algoritmi come il sistema di consigli di YouTube, cercare di capire come funziona il sito sarebbe come cercare di capire un'auto senza aprire il cofano.
A sua volta, questo significa che cercare di scrivere leggi per regolare ciò che gli algoritmi dovrebbero o non dovrebbero fare diventa un processo cieco o tentativi ed errori. Questo è ciò che sta accadendo con YouTube e con tanti altri algoritmi di machine learning. Stiamo cercando di avere voce in capitolo sui loro risultati, senza una reale comprensione di come funzionano realmente. Dobbiamo aprire queste tecnologie brevettate, o almeno renderli abbastanza trasparenti da poterli regolamentare.
Spiegazioni e test
Un modo per farlo sarebbe che gli algoritmi fornissero spiegazioni controfattuali insieme alle loro decisioni. Ciò significa elaborare le condizioni minime necessarie affinché l'algoritmo prenda una decisione diversa, senza descriverne tutta la logica. Ad esempio, un algoritmo che prende decisioni sui prestiti bancari potrebbe produrre un output che dice che "se avevi più di 18 anni e non avevi debiti precedenti, avresti accettato il tuo prestito bancario." Ma questo potrebbe essere difficile da fare con YouTube e altri siti che utilizzano algoritmi di raccomandazione, poiché in teoria qualsiasi video sulla piattaforma potrebbe essere consigliato in qualsiasi momento.
Un altro potente strumento è il test e l'auditing degli algoritmi, che è stato particolarmente utile nella diagnosi di algoritmi distorti. In un caso recente, una società di screening di curriculum professionale ha scoperto che il suo algoritmo stava dando la priorità a due fattori come migliori predittori delle prestazioni lavorative:se il nome del candidato fosse Jared, e se giocavano a lacrosse al liceo. Questo è ciò che accade quando la macchina non è sorvegliata.
In questo caso, l'algoritmo di selezione del curriculum aveva notato che gli uomini bianchi avevano maggiori possibilità di essere assunti, e aveva trovato caratteristiche proxy correlate (come essere chiamato Jared o giocare a lacrosse) presenti nei candidati assunti. Con YouTube, il controllo dell'algoritmo potrebbe aiutare a capire quali tipi di video hanno la priorità per la raccomandazione e forse aiutare a risolvere il dibattito sul fatto che le raccomandazioni di YouTube contribuiscano o meno alla radicalizzazione.
Introdurre spiegazioni controfattuali o utilizzare l'auditing dell'algoritmo è un compito difficile, processo costoso. Ma è importante, perché l'alternativa è peggio. Se gli algoritmi non vengono controllati e non sono regolamentati, potremmo vedere un graduale insinuarsi di teorici della cospirazione ed estremisti nei nostri media, e la nostra attenzione controllata da chi può produrre il contenuto più redditizio.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.