Le piattaforme di social media sono diventate più che semplici strumenti di comunicazione. Si sono evoluti in arene affollate dove la verità e la menzogna si scontrano. Tra queste piattaforme, X si distingue come un importante campo di battaglia. È un luogo in cui prosperano le campagne di disinformazione, perpetuate da eserciti di robot basati sull'intelligenza artificiale programmati per influenzare l'opinione pubblica e manipolare le narrazioni.
I bot basati sull’intelligenza artificiale sono account automatizzati progettati per imitare il comportamento umano. I bot sui social media, le piattaforme di chat e l’intelligenza artificiale conversazionale sono parte integrante della vita moderna. Sono necessari, ad esempio, per far funzionare in modo efficace le applicazioni IA.
Ma alcuni bot sono realizzati con intenti dannosi. Incredibilmente, i bot costituiscono una parte significativa della base utenti di X. Nel 2017 si stima che esistessero circa 23 milioni di social bot, pari all’8,5% degli utenti totali. Più di due terzi dei tweet hanno avuto origine da questi account automatizzati, amplificando la portata della disinformazione e confondendo le acque del discorso pubblico.
L’influenza sociale è ora un bene che può essere acquisito acquistando bot. Le aziende vendono follower falsi per aumentare artificialmente la popolarità degli account. Questi follower sono disponibili a prezzi notevolmente bassi, con molte celebrità tra gli acquirenti.
Nel corso della nostra ricerca, ad esempio, io e i colleghi abbiamo rilevato un bot che aveva pubblicato 100 tweet offrendo follower in vendita.
Utilizzando metodologie di intelligenza artificiale e un approccio teorico chiamato teoria dell’attore-rete, io e i miei colleghi abbiamo analizzato il modo in cui i social bot dannosi manipolano i social media, influenzando ciò che le persone pensano e il modo in cui agiscono con allarmante efficacia. Possiamo dire se le notizie false sono state generate da un essere umano o da un bot con un tasso di precisione del 79,7%. È fondamentale comprendere in che modo sia gli esseri umani che l'intelligenza artificiale diffondono la disinformazione per comprendere il modo in cui gli esseri umani sfruttano l'intelligenza artificiale per diffondere la disinformazione.
Per fare un esempio, abbiamo esaminato l'attività di un account denominato "True Trumpers" su Twitter.
L'account è stato creato nell'agosto 2017, non ha follower né foto del profilo, ma al momento della ricerca aveva pubblicato 4.423 tweet. Questi includevano una serie di storie interamente inventate. Vale la pena notare che questo bot è originario di un paese dell'Europa orientale.
Ricerche come questa hanno influenzato X a limitare le attività dei social bot. In risposta alla minaccia della manipolazione dei social media, X ha implementato limiti di lettura temporanei per frenare lo scraping e la manipolazione dei dati. Gli account verificati possono leggere solo 6.000 post al giorno, mentre gli account non verificati possono leggerne 600. Questo è un nuovo aggiornamento, quindi non sappiamo ancora se è stato efficace.
Tuttavia, in ultima analisi, spetta agli utenti l’onere di esercitare cautela e discernere la verità dalla menzogna, in particolare durante i periodi elettorali. Valutando criticamente le informazioni e controllando le fonti, gli utenti possono svolgere un ruolo nella protezione dell'integrità dei processi democratici dall'assalto dei bot e delle campagne di disinformazione su X. Ogni utente è, infatti, un difensore in prima linea della verità e della democrazia. Vigilanza, pensiero critico e una sana dose di scetticismo sono una corazza essenziale.
Con i social media, è importante che gli utenti comprendano le strategie utilizzate dagli account dannosi.
Gli attori malintenzionati utilizzano spesso reti di bot per amplificare false narrazioni, manipolare tendenze e diffondere rapidamente disinformazione. Gli utenti devono prestare attenzione quando incontrano account che mostrano comportamenti sospetti, come post eccessivi o messaggi ripetitivi.
La disinformazione viene spesso propagata anche attraverso siti web dedicati alle notizie false. Questi sono progettati per imitare fonti di notizie credibili. Si consiglia agli utenti di verificare l'autenticità delle fonti di notizie incrociando le informazioni con fonti affidabili e consultando organizzazioni di controllo dei fatti.
La consapevolezza di sé è un’altra forma di protezione, soprattutto dalle tattiche di ingegneria sociale. La manipolazione psicologica viene spesso utilizzata per indurre gli utenti a credere a falsità o a impegnarsi in determinate azioni. Gli utenti dovrebbero mantenere la vigilanza e valutare criticamente i contenuti che incontrano, in particolare durante periodi di maggiore sensibilità come le elezioni.
Rimanendo informati, impegnandoci in un dibattito civile e sostenendo la trasparenza e la responsabilità, possiamo plasmare collettivamente un ecosistema digitale che promuova la fiducia, la trasparenza e un processo decisionale informato.
Fornito da The Conversation
Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi l'articolo originale.