Credito:Pixabay/CC0 di dominio pubblico
Secondo uno studio pubblicato di recente, la sfiducia di una persona negli esseri umani prevede che avrà più fiducia nella capacità dell'intelligenza artificiale di moderare i contenuti online. I risultati, affermano i ricercatori, hanno implicazioni pratiche sia per i progettisti che per gli utenti degli strumenti di intelligenza artificiale nei social media.
"Abbiamo trovato un modello sistematico di individui che hanno meno fiducia negli altri umani che mostrano maggiore fiducia nella classificazione dell'IA", ha affermato S. Shyam Sundar, professore di effetti multimediali di James P. Jimirro alla Penn State. "Sulla base della nostra analisi, ciò sembra essere dovuto al fatto che gli utenti invocano l'idea che le macchine siano accurate, obiettive e prive di pregiudizi ideologici."
Lo studio, pubblicato sulla rivista New Media &Society ha anche scoperto che gli "utenti esperti" che sono utenti esperti di tecnologia dell'informazione avevano la tendenza opposta. Si fidavano meno dei moderatori dell'IA perché ritengono che le macchine non siano in grado di rilevare le sfumature del linguaggio umano.
Lo studio ha rilevato che le differenze individuali come la sfiducia nei confronti degli altri e il consumo di energia predicono se gli utenti invocheranno caratteristiche positive o negative delle macchine di fronte a un sistema basato sull'intelligenza artificiale per la moderazione dei contenuti, che alla fine influenzerà la loro fiducia nei confronti del sistema. I ricercatori suggeriscono che la personalizzazione delle interfacce in base alle differenze individuali può alterare positivamente l'esperienza dell'utente. Il tipo di moderazione dei contenuti nello studio prevede il monitoraggio dei post sui social media per i contenuti problematici come l'incitamento all'odio e l'ideazione suicidaria.
"Uno dei motivi per cui alcuni potrebbero essere riluttanti a fidarsi della tecnologia di moderazione dei contenuti è che siamo abituati a esprimere liberamente le nostre opinioni online. Riteniamo che la moderazione dei contenuti possa portarcelo via", ha affermato Maria D. Molina, assistente professore di arti e scienze della comunicazione presso la Michigan State University e il primo autore di questo articolo. "Questo studio può offrire una soluzione a questo problema suggerendo che per le persone che detengono stereotipi negativi dell'IA per la moderazione dei contenuti, è importante rafforzare il coinvolgimento umano quando si prende una decisione. D'altra parte, per le persone con stereotipi positivi delle macchine, possiamo rafforzare la forza della macchina mettendo in evidenza elementi come l'accuratezza dell'IA."
Lo studio ha anche scoperto che gli utenti con un'ideologia politica conservatrice avevano maggiori probabilità di fidarsi della moderazione basata sull'intelligenza artificiale. Molina e il coautore Sundar, che co-dirige anche il Media Effects Research Laboratory di Penn State, hanno affermato che ciò potrebbe derivare da una sfiducia nei media mainstream e nelle società di social media.
I ricercatori hanno reclutato 676 partecipanti dagli Stati Uniti. Ai partecipanti è stato detto che stavano aiutando a testare un sistema di moderazione dei contenuti in fase di sviluppo. Sono state fornite definizioni di incitamento all'odio e ideazione suicidaria, seguite da uno dei quattro diversi post sui social media. I post sono stati contrassegnati per adattarsi a tali definizioni o non contrassegnati. Ai partecipanti è stato anche detto se la decisione di segnalare o meno il post è stata presa dall'IA, da un essere umano o da una combinazione di entrambi.
La dimostrazione è stata seguita da un questionario che ha chiesto ai partecipanti le loro differenze individuali. Le differenze includevano la loro tendenza a diffidare degli altri, l'ideologia politica, l'esperienza con la tecnologia e la fiducia nell'IA.
"Siamo bombardati da così tanti contenuti problematici, dalla disinformazione all'incitamento all'odio", ha detto Molina. "Ma, in fin dei conti, si tratta di come possiamo aiutare gli utenti a calibrare la loro fiducia nei confronti dell'IA a causa degli attributi effettivi della tecnologia, piuttosto che essere influenzati da quelle differenze individuali."
Molina e Sundar affermano che i loro risultati potrebbero aiutare a plasmare l'accettazione futura dell'IA. Creando sistemi personalizzati per l'utente, i progettisti potrebbero alleviare lo scetticismo e la sfiducia e creare un'adeguata dipendenza dall'IA.
"Una delle principali implicazioni pratiche dello studio è capire strategie di comunicazione e progettazione per aiutare gli utenti a calibrare la loro fiducia nei sistemi automatizzati", ha affermato Sundar, che è anche direttore del Center for Socially Responsible Artificial Intelligence della Penn State. "Alcuni gruppi di persone che tendono ad avere troppa fiducia nella tecnologia dell'IA dovrebbero essere avvisati dei suoi limiti e coloro che non credono nella sua capacità di moderare i contenuti dovrebbero essere pienamente informati sull'entità del coinvolgimento umano nel processo". + Esplora ulteriormente