• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • YouTube Notre Dame-9/11 flub mette in evidenza i punti ciechi dell'IA

    In questa immagine resa disponibile martedì 16 aprile, Le fiamme e il fumo del 2019 si alzano dall'incendio mentre la guglia inizia a crollare sulla cattedrale di Notre Dame a Parigi, Lunedì, 15 aprile 2019. Un inferno che ha infuriato attraverso la Cattedrale di Notre Dame per più di 12 ore ha distrutto la sua guglia e il suo tetto, ma ha risparmiato i suoi due campanili medievali, e un frenetico tentativo di salvataggio ha salvato i "tesori più preziosi" del monumento, "compresa la corona di spine presumibilmente indossata da Gesù, i funzionari hanno detto martedì. (Foto AP/Thierry Mallet)

    YouTube potrebbe aver bisogno di qualche persona in più. Le macchine il cui compito è reprimere le teorie del complotto non lo stanno ancora tagliando.

    Mentre le persone di tutto il mondo lunedì si sono rivolte a YouTube per vedere la cattedrale di Notre Dame bruciare a Parigi, un sistema automatizzato allegava informazioni di base sugli attacchi terroristici dell'11 settembre a New York per trasmettere in streaming i video dell'incendio.

    La causa del rogo non è stata determinata, ma le autorità hanno detto che sembrava essere accidentale, non incendio doloso o terrorismo.

    La nota di base è stata pubblicata da un sistema che YouTube ha recentemente messo in atto per combattere cospirazioni ben note su eventi come lo sbarco sulla luna o l'11 settembre. In questo caso, l'algoritmo potrebbe aver avuto l'effetto opposto, alimentando speculazioni sulla causa dell'incendio e su chi potrebbe esserci dietro.

    È l'ultimo esempio di mancata accensione dell'intelligenza artificiale e un segno che abbiamo ancora molta strada da fare prima che l'IA diventi abbastanza intelligente da comprendere sfumature e contesto.

    In una dichiarazione, YouTube ha spiegato che le informazioni di base, una voce dell'Enciclopedia Britannica, sono state erroneamente inserite lì da algoritmi destinati a proteggere gli utenti da materiale falso che si diffonde a seguito di alcuni eventi di cronaca.

    Gli algoritmi di YouTube hanno una storia di errori di accensione ed etichettatura inappropriata dei video. Joshua Benton, direttore del Nieman Journalism Lab dell'Università di Harvard, ha notato diversi in un post sul blog lunedì.

    L'autunno scorso, ad esempio, YouTube ha etichettato un video del ritiro di un professore dalla Michigan State University con la voce dell'Enciclopedia Britannica per "Ebreo, " insieme ad una Stella di David posta sotto l'immagine. Il professore, Ken Waltzer, era stato a capo del programma di studi ebraici dell'università, ma Benton ha notato che nulla nel titolo o nella descrizione del video menzionava qualcosa di ebraico.

    Algoritmo di YouTube, che è presumibilmente pronto a reprimere le cospirazioni antisemite, in qualche modo lo ha fatto da solo.

    Quando YouTube ha annunciato i suoi sforzi contro la cospirazione la scorsa estate, ha detto che avrebbe contrastato le informazioni fasulle con fonti di cui le persone generalmente si fidano, come Wikipedia e l'Enciclopedia Britannica. Ha detto che avrebbe aggiunto lo sfondo di queste fonti ai video che presentano soggetti comuni della cospirazione (ad esempio, vaccinazioni, sparatorie a scuola o l'attentato di Oklahoma City del 1995), indipendentemente dal fatto che i video sostengano una teoria della cospirazione.

    I video dell'incendio di Notre Dame sono stati mostrati in grande, organi di informazione fidati. L'intelligenza artificiale di YouTube, però, non ha fatto eccezioni.

    Di lunedi, la società ha risolto rapidamente l'errore di Notre Dame e ha affermato che i suoi sistemi "a volte fanno la chiamata sbagliata". Ha spento i pannelli informativi per i video dell'incendio ma non ha detto se stava guardando la pratica in modo più ampio.

    "Penso che siano una sorta di avanti e indietro su quanto bene sta facendo, " Benton ha detto. "Si arriva alla domanda centrale che vediamo con Facebook e YouTube e qualsiasi altra piattaforma tecnologica che aspira a una scala globale. Ci sono troppi contenuti da monitorare e non puoi lasciare che gli esseri umani monitorino ogni video".

    Anziché, abbiamo macchine che chiaramente stanno ancora imparando sul lavoro.

    "Una cosa è sbagliare qualcosa quando la posta in gioco è bassa, " Benton ha detto. "Quando è la più grande notizia del mondo, sembra che potrebbero avere più persone che lo guardano."

    © 2019 The Associated Press. Tutti i diritti riservati.




    © Scienza https://it.scienceaq.com