Credito:CC0 Dominio pubblico
Mostrare pregiudizi verso gli altri non richiede un alto livello di capacità cognitiva e potrebbe essere facilmente esibito da macchine artificialmente intelligenti, ha suggerito una nuova ricerca.
Esperti di informatica e psicologia dell'Università di Cardiff e del MIT hanno dimostrato che gruppi di macchine autonome potrebbero dimostrare pregiudizi semplicemente identificando, copiando e imparando questo comportamento l'uno dall'altro.
Può sembrare che il pregiudizio sia un fenomeno umano specifico che richiede la cognizione umana per formarsi un'opinione, o per stereotipare, una determinata persona o gruppo.
Sebbene alcuni tipi di algoritmi informatici abbiano già mostrato pregiudizi, come il razzismo e il sessismo, basato sull'apprendimento da registri pubblici e altri dati generati da esseri umani, questo nuovo lavoro dimostra la possibilità che l'IA evolva autonomamente gruppi pregiudizievoli.
Le nuove scoperte, che sono stati pubblicati sulla rivista Rapporti scientifici , si basano su simulazioni al computer di come individui con pregiudizi simili, o agenti virtuali, possono formare un gruppo e interagire tra loro.
In un gioco di dare e avere, ogni individuo decide se donare a qualcuno all'interno del proprio gruppo o in un gruppo diverso, sulla base della reputazione di un individuo e della propria strategia di donazione, che include i loro livelli di pregiudizio verso gli estranei.
Mentre il gioco si svolge e un supercomputer accumula migliaia di simulazioni, ogni individuo inizia ad apprendere nuove strategie copiando gli altri all'interno del proprio gruppo o dell'intera popolazione.
Co-autore dello studio Professor Roger Whitaker, dal Crime and Security Research Institute dell'Università di Cardiff e dalla School of Computer Science and Informatics, ha dichiarato:"Eseguendo queste simulazioni migliaia e migliaia di volte, cominciamo a capire come si evolve il pregiudizio e le condizioni che lo promuovono o lo impediscono.
"Le nostre simulazioni mostrano che il pregiudizio è una potente forza della natura e attraverso l'evoluzione, può essere facilmente incentivato nelle popolazioni virtuali, a scapito di una più ampia connettività con gli altri. La protezione da gruppi pregiudizievoli può inavvertitamente portare gli individui a formare ulteriori gruppi pregiudizievoli, con conseguente frattura della popolazione. Un pregiudizio così diffuso è difficile da invertire".
I risultati coinvolgono individui che aggiornano i loro livelli di pregiudizio copiando preferenzialmente quelli che ottengono un profitto a breve termine più elevato, il che significa che queste decisioni non richiedono necessariamente capacità cognitive avanzate.
"È possibile che le macchine autonome con la capacità di identificarsi con la discriminazione e copiare gli altri possano in futuro essere suscettibili di fenomeni pregiudizievoli che vediamo nella popolazione umana, "Continuò il professor Whitaker.
"Molti degli sviluppi dell'IA a cui stiamo assistendo riguardano l'autonomia e l'autocontrollo, il che significa che il comportamento dei dispositivi è influenzato anche dagli altri intorno a loro. Veicoli e Internet of Things sono due esempi recenti. Il nostro studio fornisce una visione teorica in cui gli agenti simulati chiamano periodicamente gli altri per un qualche tipo di risorsa".
Un'ulteriore scoperta interessante dello studio è stata che in particolari condizioni, che includono sottopopolazioni più distinte presenti all'interno di una popolazione, era più difficile che il pregiudizio prendesse piede.
"Con un numero maggiore di sottopopolazioni, le alleanze di gruppi non pregiudizievoli possono cooperare senza essere sfruttate. Questo diminuisce anche il loro status di minoranza, riducendo la suscettibilità all'affermarsi del pregiudizio. Però, ciò richiede anche circostanze in cui gli agenti hanno una maggiore disposizione ad interagire al di fuori del loro gruppo, " ha concluso il professor Whitaker.