Il pregiudizio e la paura sono sempre stati al centro delle ostilità tra gruppi. Sebbene l’interazione tra gruppi sia un prerequisito per avviare la pace e la stabilità all’incrocio di interessi, valori e culture contrastanti, non si può escludere il rischio di un’ulteriore escalation proprio a causa delle interazioni dirette. In particolare, la carenza di personale imparziale e imparziale incaricato di gestire adeguatamente una sessione di contatto elettronico (e-contact) può causare il fallimento del processo e la sua destabilizzazione.
Ora, un gruppo di ricerca che comprende l’Università di Kyoto ha dimostrato che i programmi di intelligenza artificiale interattiva possono aiutare a ridurre i pregiudizi e l’ansia tra i gruppi etnici storicamente divisi in Afghanistan durante le interazioni online. Il lavoro è pubblicato sulla rivista Communications Psychology .
"Rispetto al gruppo di controllo, i partecipanti al gruppo di intervento sull'intelligenza artificiale hanno mostrato un maggiore coinvolgimento nel nostro studio e significativamente meno pregiudizi e ansia nei confronti di altri gruppi etnici", afferma Sofia Sahab della Graduate School of Informatics di KyotoU.
In collaborazione con l'Università di Nagoya, il Nagoya Institute of Technology e l'Università di Hokkaido, il team di Sahab ha testato l'efficacia dell'utilizzo di una CAI, o intelligenza artificiale conversazionale, sulla piattaforma di discussione D-Agree per facilitare conversazioni imparziali e costruttive. Il programma garantisce ai partecipanti uno spazio privato e sicuro in cui parlare liberamente, un ambiente comunemente dato per scontato nei paesi senza guerra.
"Il nostro lavoro ultradecennale sul supporto alla costruzione del consenso basato sugli agenti di intelligenza artificiale ha dimostrato empiricamente l'applicabilità degli agenti di intelligenza artificiale nella riduzione delle situazioni conflittuali", osserva il coautore Takayuki Ito, anche lui della scuola di informatica.
Il team di Sahab ha applicato un esperimento controllato randomizzato per determinare gli effetti causali della facilitazione dell'intelligenza artificiale conversazionale nelle discussioni online nel ridurre pregiudizi e ansia.
I partecipanti provenienti da tre etnie sono stati divisi in due gruppi – un gruppo AI e un gruppo di controllo senza AI – per valutare gli effetti. Come previsto, i primi hanno espresso più empatia verso i gruppi esterni rispetto ai partecipanti al gruppo di controllo.
"Gli agenti neutrali dell'intelligenza artificiale mirano a ridurre i rischi coordinando le conversazioni guidate nel modo più naturale possibile. Fornendo strategie eque ed economicamente vantaggiose per incoraggiare interazioni positive, possiamo promuovere un'armonia duratura tra i diversi gruppi etnici", aggiunge Sahab.
Nel lungo termine, i ricercatori stanno valutando il potenziale dell'intervento dell'IA oltre i conflitti di confine per promuovere un cambiamento sociale positivo.
"L'intelligenza artificiale potrebbe essere arrivata in un momento cruciale per aiutare l'umanità a migliorare la sostenibilità sociale con le interazioni umane mediate dalla CAI", riflette Sahab.