È vero quel clickbait? Credito:Crystal Eye Studio/Shutterstock.com
Quando Mark Zuckerberg ha detto al Congresso che Facebook avrebbe usato l'intelligenza artificiale per rilevare le notizie false pubblicate sul sito dei social media, non era particolarmente specifico su cosa significasse. Dato il mio lavoro che utilizza analisi di immagini e video, Suggerisco che l'azienda dovrebbe stare attenta. Nonostante alcuni potenziali difetti di base, L'intelligenza artificiale può essere uno strumento utile per individuare la propaganda online, ma può anche essere sorprendentemente efficace nel creare materiale fuorviante.
I ricercatori sanno già che le notizie false online si diffondono molto più rapidamente e più ampiamente delle notizie reali. La mia ricerca ha riscontrato allo stesso modo che i post online con informazioni mediche false ottengono più visualizzazioni, commenti e Mi piace rispetto a quelli con contenuti medici accurati. In un mondo online in cui gli spettatori hanno un'attenzione limitata e sono saturi di scelte di contenuto, spesso sembra che le informazioni false siano più attraenti o coinvolgenti per gli spettatori.
Il problema sta peggiorando:entro il 2022, le persone nelle economie sviluppate potrebbero incontrare più notizie false che informazioni reali. Ciò potrebbe portare a un fenomeno che i ricercatori hanno soprannominato "vertigine della realtà" - in cui i computer possono generare contenuti così convincenti che le persone normali potrebbero avere difficoltà a capire cosa è vero.
Rilevare la falsità
Algoritmi di apprendimento automatico, un tipo di IA, hanno avuto successo per decenni nella lotta alle e-mail di spam, analizzando il testo dei messaggi e determinando quanto è probabile che un particolare messaggio sia una comunicazione reale da una persona reale – o una richiesta distribuita di massa per i prodotti farmaceutici o la rivendicazione di una fortuna perduta da tempo.
Basandosi su questo tipo di analisi del testo nella lotta allo spam, I sistemi di intelligenza artificiale possono valutare quanto bene il testo di un post, o un titolo, confronta con il contenuto effettivo di un articolo che qualcuno sta condividendo online. Un altro metodo potrebbe esaminare articoli simili per vedere se altri mezzi di informazione hanno fatti diversi. Sistemi simili possono identificare account specifici e siti Web di origine che diffondono notizie false.
Un ciclo infinito
Però, questi metodi presuppongono che le persone che diffondono notizie false non cambino i loro approcci. Spesso cambiano tattica, manipolare il contenuto dei post falsi nel tentativo di farli sembrare più autentici.
L'uso dell'intelligenza artificiale per valutare le informazioni può anche esporre e amplificare alcuni pregiudizi nella società. Questo può riguardare il genere, sfondo razziale o stereotipi di quartiere. Può anche avere conseguenze politiche, espressione potenzialmente restrittiva di particolari punti di vista. Per esempio, YouTube ha tagliato la pubblicità da alcuni tipi di canali video, costano soldi ai loro creatori.
Anche il contesto è fondamentale. Il significato delle parole può cambiare nel tempo. E la stessa parola può significare cose diverse sui siti liberali e su quelli conservatori. Per esempio, un post con i termini "WikiLeaks" e "DNC" su un sito più liberale potrebbe essere più probabile che sia una notizia, mentre su un sito conservatore potrebbe riferirsi a un particolare insieme di teorie del complotto.
Usare l'intelligenza artificiale per creare notizie false
La sfida più grande, però, dell'uso dell'intelligenza artificiale per rilevare notizie false è che mette la tecnologia in una corsa agli armamenti con se stessa. I sistemi di apprendimento automatico si stanno già dimostrando spaventosamente capaci di creare quelli che vengono chiamati "deepfake":foto e video che sostituiscono realisticamente il volto di una persona con un altro, per far sembrare che, Per esempio, una celebrità è stata fotografata in una posa rivelatrice o un personaggio pubblico sta dicendo cose che in realtà non direbbe mai. Anche le app per smartphone sono in grado di eseguire questo tipo di sostituzione, il che rende questa tecnologia disponibile praticamente a chiunque, anche senza competenze di editing video di livello hollywoodiano.
I ricercatori si stanno già preparando a utilizzare l'intelligenza artificiale per identificare questi falsi creati dall'intelligenza artificiale. Per esempio, le tecniche per l'ingrandimento video possono rilevare i cambiamenti nel polso umano che stabilirebbero se una persona in un video è reale o generata dal computer. Ma sia i falsari che i rilevatori di falsi miglioreranno. Alcuni falsi potrebbero diventare così sofisticati da diventare molto difficili da confutare o respingere, a differenza delle precedenti generazioni di falsi, che usava un linguaggio semplice e faceva affermazioni facilmente confutate.
L'intelligenza umana è la vera chiave
Il modo migliore per combattere la diffusione di notizie false potrebbe essere dipendere dalle persone. Le conseguenze sociali delle fake news:maggiore polarizzazione politica, maggiore faziosità, e l'erosione della fiducia nei media e nel governo tradizionali - sono significativi. Se più persone sapessero che la posta in gioco era così alta, potrebbero essere più diffidenti nei confronti delle informazioni, soprattutto se è più basato sulle emozioni, perché è un modo efficace per attirare l'attenzione della gente.
Quando qualcuno vede un post irritante, quella persona farebbe meglio a indagare sulle informazioni, piuttosto che condividerlo immediatamente. L'atto di condivisione conferisce anche credibilità a un post:quando altre persone lo vedono, registrano che è stato condiviso da qualcuno che conoscono e presumibilmente di cui si fidano almeno un po', ed è meno probabile che notino se la fonte originale è discutibile.
I siti di social media come YouTube e Facebook potrebbero decidere volontariamente di etichettare i propri contenuti, mostrando chiaramente se un articolo che pretende di essere una notizia è verificato da una fonte attendibile. Zuckerberg ha detto al Congresso di voler mobilitare la "comunità" degli utenti di Facebook per dirigere gli algoritmi della sua azienda. Facebook potrebbe raccogliere gli sforzi di verifica. Wikipedia offre anche un modello, di volontari dedicati che tracciano e verificano le informazioni.
Facebook potrebbe utilizzare le sue partnership con organizzazioni di notizie e volontari per addestrare l'intelligenza artificiale, modificare continuamente il sistema per rispondere ai cambiamenti dei propagandisti negli argomenti e nelle tattiche. Questo non catturerà tutte le notizie pubblicate online, ma renderebbe più facile per un gran numero di persone distinguere i fatti dai falsi. Ciò potrebbe ridurre le possibilità che storie fittizie e fuorvianti diventino popolari online.
rassicurante, le persone che hanno una certa esposizione a notizie accurate sono più brave a distinguere tra informazioni reali e false. La chiave è assicurarsi che almeno parte di ciò che le persone vedono online sia, infatti, vero.
Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.