• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • YouTube per frenare i video di cospirazione raccomandati

    Credito:CC0 Dominio Pubblico

    La rete video YouTube ha risposto ai critici che da tempo chiedono alla società di Google di ripulire il suo motore di raccomandazione, e non offrire video di cospirazione nelle riproduzioni suggerite.

    In un post sul blog pubblicato venerdì, YouTube ha affermato che inizierà a ridurre la raccomandazione di "contenuti limite e contenuti che potrebbero disinformare gli utenti in modi dannosi, come i video che promuovono una finta cura miracolosa per una malattia grave, sostenendo che la terra è piatta, o fare affermazioni palesemente false su eventi storici come l'11 settembre".

    Il teorico della cospirazione di più alto profilo, Alex Jones, è stato bandito da YouTube nel 2018, insieme ad Apple, cucitrice, Facebook e altri per le preoccupazioni sui suoi contenuti, compresi i video che mettevano in dubbio se gli omicidi di Sandy Hook fossero reali.

    Così, se gli spettatori di YouTube cercavano gli account di notizie di un evento come Sandy Hook, avrebbero potuto vedere InfoWars apparire dopo una serie di video della CBS, ABC e simili. L'algoritmo di YouTube seleziona i video in base alla cronologia di visualizzazione e ricerca in modalità di riproduzione automatica, con suggerimenti anche per altri video da guardare.

    Questa non è la prima volta che YouTube cerca di affrontare il problema del video della cospirazione. A marzo 2018, ha affermato che avrebbe inserito collegamenti a Wikipedia sugli eventi in caselle di testo attorno a "eventi ampiamente accettati, come lo sbarco sulla luna (1969)".

    YouTube stava rispondendo al contraccolpo del pubblico dopo che la sua scheda dei video di tendenza ha offerto un'ampia piattaforma ai clip che condividevano informazioni false o fuorvianti su eventi di cronaca nazionale, come la sparatoria al liceo a Parkland, Florida, o la sparatoria di massa del 2017 a Las Vegas.

    YouTube afferma che questo cambiamento di algoritmo si applicherà a meno dell'1% dei contenuti su YouTube, ma che "limitare la raccomandazione di questi tipi di video significherà un'esperienza migliore per la community di YouTube".

    La rete ha sottolineato che il cambiamento influenzerà i consigli su quali video guardare, non se un video è disponibile su YouTube.

    "Come sempre, le persone possono comunque accedere a tutti i video che rispettano le nostre Norme della community e, quando pertinente, questi video possono apparire nei consigli per gli iscritti al canale e nei risultati di ricerca".

    YouTube riceve oltre 400 ore di video caricati sul sito ogni minuto, tanti video discutibili cadono attraverso le crepe. I critici hanno chiesto a lungo una maggiore supervisione umana, e YouTube ha risposto dicendo che ne assumerebbe fino a 10, 000 persone a caccia di video offensivi. Inoltre, la rete ha propagandato il suo uso dell'apprendimento automatico per ottenere una migliore gestione per tenere fuori dalla rete le cose cattive.

    I video rimangono attivi fino a quando non vengono "segnalati" dai membri della community per non aver aderito alle linee guida di YouTube, come mostrare violenza, contenuto sessuale o nel caso delle recenti sparatorie al liceo della Florida, false informazioni.

    Un esempio del problema del complotto. A febbraio 2018, quando gli studenti sopravvissuti a una sparatoria in una scuola superiore in Florida hanno iniziato a parlare, un video che suggeriva che gli studenti fossero "attori della crisi, " assunto da Democratici e sostenitori del controllo delle armi, è salito in cima alla sezione Tendenze di YouTube, attirando 200, 000 visualizzazioni. Una volta che i media se ne sono accorti, YouTube l'ha tirato giù.

    Questo cambiamento nella politica si basa su una combinazione di apprendimento automatico e persone reali, YouTube dice. "Lavoriamo con valutatori umani ed esperti di tutti gli Stati Uniti per aiutare a formare i sistemi di apprendimento automatico che generano raccomandazioni. Questi valutatori sono formati utilizzando linee guida pubbliche e forniscono input critici sulla qualità di un video".

    YouTube aveva resistito ad apportare modifiche all'ingrosso al suo algoritmo a causa delle preoccupazioni per la libertà di parola. La rete ha affermato che il cambiamento "trova un equilibrio tra il mantenimento di una piattaforma per la libertà di parola e il rispetto della nostra responsabilità nei confronti degli utenti".

    Le modifiche entreranno in vigore per ora solo negli Stati Uniti e alla fine verranno implementate in altri paesi.

    (c)2019 USA Today
    Distribuito da Tribune Content Agency, LLC.




    © Scienza https://it.scienceaq.com