• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  science >> Scienza >  >> Altro
    Dal clickbait alla trasparenza:reimmaginare il mondo online

    Credito:CC0 Dominio Pubblico

    Polarizzazione, teorie cospirazioniste, notizie false:ciò che le persone vedono su Internet è in gran parte determinato dagli algoritmi opachi di poche aziende. Questo è uno sviluppo preoccupante per le società democratiche. Ma gli ambienti online potrebbero essere progettati in modo da promuovere autonomia e trasparenza, promuovendo così il potenziale positivo di Internet. Un team di ricercatori dell'Istituto Max Planck per lo sviluppo umano di Berlino, l'Università di Bristol, e la Harvard Law School ha affrontato questo dibattito dalla prospettiva delle scienze comportamentali e ha proposto interventi in grado di promuovere un Internet più democratico. I loro risultati sono stati pubblicati in Natura Comportamento Umano .

    Stai scorrendo il tuo YouTube, Facebook, o feed Twitter quando viene visualizzato un video:un rapporto su accordi politici segreti, cospirazioni mediatiche, o falsi studi scientifici. Tutto sembra essere confermato dai fatti. Il video ha centinaia di migliaia di clic e sembra avere successo in tutto il mondo. E molti spettatori sembrano essere d'accordo con esso, dopo avergli dato un "pollice in su". Ma cosa significa esattamente tutto questo? Rende credibile il video? Quanti spettatori hanno guardato il video fino alla fine; quanti ne sono rimasti a metà? E perché il video è apparso nel tuo feed in primo luogo? La piattaforma online conosce molte delle risposte, ma non condivide queste informazioni. E non vengono forniti altri spunti che potrebbero aiutarti a valutare il contenuto, qualità, o credibilità del video.

    Secondo il Digital News Report 2019 del Reuters Institute, più della metà (55%) degli utenti Internet del mondo ora utilizza i social media oi motori di ricerca per tenersi al passo con le notizie. In altre parole, l'opinione pubblica è modellata in gran parte dai contenuti online, che è a sua volta curato da algoritmi. "L'obiettivo è mantenere gli utenti felici il più a lungo possibile in modo che rimangano sulla piattaforma. Ciò si ottiene fornendo intrattenimento e stabilendo una sensazione di benessere, il che probabilmente spiega perché molte piattaforme non hanno pulsanti "non mi piace" che consentire agli utenti di votare negativamente i contenuti. La sensazione che viene trasmessa è:hai ragione. Ciò potrebbe essere innocuo quando condividiamo contenuti privati ​​come foto delle vacanze, ma distorce l'immagine quando si diffondono opinioni radicali e falsità, ", afferma il coautore Stephan Lewandowsky, Professore di Psicologia Cognitiva presso l'Università di Bristol.

    Un altro problema è che gli algoritmi dei feed di notizie mostrano agli utenti solo contenuti basati sul loro precedente comportamento online, con cui è probabile che siano d'accordo. Altri punti di vista tendono a non essere mostrati affatto. Questo crea reti di utenti che la pensano allo stesso modo, che rafforzano le opinioni condivise e creano l'illusione di un ampio sostegno, anche se un'opinione in realtà non è ampiamente condivisa. Ma come possono gli utenti distinguere le notizie false dai fatti? E come devono essere progettati gli ambienti online per supportare questi sforzi? "Gli interventi che proponiamo mirano a consentire ai singoli utenti di prendere decisioni informate e autonome in ambienti online, idealmente, senza dover fare affidamento su verificatori di fatti indipendenti. L'architettura degli ambienti online influenza il comportamento degli utenti. Per cambiare in meglio quell'ambiente, dobbiamo comprendere il comportamento umano e tenerne conto nelle scelte progettuali, " dice Philipp Lorenz-Spreen, autore principale dello studio e ricercatore presso il Max Planck Institute for Human Development.

    Il team di ricerca ha identificato una serie di modi per aiutare gli utenti a valutare la qualità dei contenuti Internet e a comprendere i meccanismi alla base degli algoritmi, senza limitare le libertà centrali nella filosofia originale di Internet. Queste possibilità sono tecnologicamente fattibili ma finora in gran parte non sfruttate. Il team di ricerca ha sviluppato raccomandazioni specifiche per responsabilizzare le persone online, attingendo a due approcci delle scienze comportamentali:nudging e boosting.

    Il nudging mira a guidare il comportamento delle persone evidenziando informazioni importanti senza imporre regole o divieti. Boosting mira a migliorare la competenza decisionale delle persone, consentendo loro di navigare autonomamente nelle situazioni e prendere decisioni migliori. Secondo i ricercatori, è importante adottare un approccio su più fronti per raggiungere il maggior numero possibile di persone. Si potrebbe usare il nudging, Per esempio, per indicare se il contenuto soddisfa determinati criteri di qualità, ad esempio se proviene da fonti affidabili. Ciò spingerebbe gli utenti a controllare accuratamente i contenuti e creerebbe una struttura di incentivi affinché i produttori di contenuti soddisfino i criteri richiesti. Includere collegamenti ipertestuali a fonti verificate sarebbe un altro passo. Wikipedia potrebbe fungere da modello qui:i riferimenti e i riferimenti incrociati che fornisce aiutano a contestualizzare le informazioni presentate. Twitter ha recentemente fatto un passo in questa direzione e ha iniziato a segnalare alcuni tweet con un avviso di verifica dei fatti, incluso un tweet di Donald Trump sull'argomento del voto postale.

    I nudge possono anche comunicare ulteriori informazioni sul comportamento online di altri utenti, fornendo ulteriore contesto su come gli altri valutano il contenuto. Per esempio, il numero di like può essere impostato in relazione al numero totale di lettori:"4, 287 su 1,5 milioni di lettori hanno apprezzato questo articolo." Le informazioni che c'erano 44, 000 clic su un articolo, ma che solo 3, 000 utenti che lo leggono fino alla fine potrebbero essere un indicatore di qualità migliore rispetto al solo numero di clic e Mi piace. È stato dimostrato che i formati numerici trasparenti possono migliorare le decisioni mediche. Perché non dovrebbe valere lo stesso per Internet? Questo approccio potrebbe prevenire la formazione di camere di risonanza in cui gruppi di persone credono erroneamente che la loro opinione sia diffusa e accettata.

    Un'altra possibilità potrebbe essere quella di rendere leggermente più difficile per gli utenti la condivisione delle informazioni quando un articolo non cita riferimenti esterni. Per esempio, agli utenti potrebbe essere richiesto di fare clic su una finestra popup contenente un avviso che indica la mancanza di riferimenti. Un altro tipo di spinta potrebbe mirare al modo in cui il contenuto è organizzato nei browser, ovvero il modo in cui un newsfeed ordina il contenuto. Differenziare chiaramente tra i tipi di contenuto, come opinioni, notizia, o post di amici, può rendere i newsfeed più trasparenti.

    potenziamento, in contrasto, mira a migliorare la competenza degli utenti a lungo termine. Questo potrebbe, ad esempio, significa consentire alle persone di regolare il modo in cui sono ordinati i propri feed di notizie, consentendo loro di modificare le proprie impostazioni per riflettere quali fattori sono più importanti per loro e quali contenuti vogliono vedere per primi. I social network potrebbero essere obbligati a indicare perché alcuni contenuti hanno un peso maggiore e vengono mostrati per primi, mentre ad altri contenuti viene data una priorità inferiore. Un altro esempio di spinta sarebbe presentare la fonte originale di un'informazione e il percorso attraverso il quale ha raggiunto un utente. Semplici alberi decisionali potrebbero guidare gli utenti attraverso un processo graduale di controllo dell'origine, contesto, e la qualità dei contenuti online. In altre parole, agli utenti verrebbero forniti gli strumenti per diventare essi stessi controllori dei fatti. A lungo termine, imparerebbero a riconoscere i modelli, valutare criticamente i contenuti, e per identificare la manipolazione più rapidamente.

    "La natura interattiva dei social media potrebbe essere sfruttata per promuovere un dialogo democratico diversificato e favorire l'intelligenza collettiva. Il nostro obiettivo è trovare modi per rafforzare il potenziale di Internet per informare i processi decisionali nelle società democratiche, rafforzandoli invece di minarli. Problemi globali come il cambiamento climatico e la pandemia di coronavirus richiedono un coordinamento, soluzioni collettive. E questo rende cruciale un mondo online democraticamente interconnesso, "dice Ralph Hertwig, Direttore del Center for Adaptive Rationality presso il Max Planck Institute for Human Development.


    © Scienza https://it.scienceaq.com