Credito:CC0 Dominio Pubblico
In una nuova serie di esperimenti, gli algoritmi di intelligenza artificiale (A.I.) sono stati in grado di influenzare le preferenze delle persone per candidati politici fittizi o potenziali partner romantici, a seconda che le raccomandazioni fossero esplicite o nascoste. Ujué Agudo e Helena Matute dell'Universidad de Deusto di Bilbao, Spagna, presentare questi risultati nella rivista ad accesso aperto PLOS UNO il 21 aprile, 2021.
Da Facebook ai risultati di ricerca di Google, molte persone incontrano A.I. algoritmi ogni giorno Le società private stanno conducendo ricerche approfondite sui dati dei loro utenti, generare intuizioni sul comportamento umano che non sono disponibili pubblicamente. La ricerca accademica in scienze sociali è in ritardo rispetto alla ricerca privata, e la conoscenza pubblica su come l'A.I. mancano gli algoritmi che possono influenzare le decisioni delle persone.
Per gettare nuova luce, Agudo e Matute hanno condotto una serie di esperimenti che hanno testato l'influenza dell'A.I. algoritmi in contesti diversi. Hanno reclutato partecipanti per interagire con algoritmi che presentavano foto di candidati politici fittizi o candidati per appuntamenti online, e ha chiesto ai partecipanti di indicare per chi avrebbero votato o per chi avrebbero inviato un messaggio. Gli algoritmi hanno promosso alcuni candidati rispetto ad altri, o esplicitamente (ad es. "Compatibilità al 90%") o di nascosto, ad esempio mostrando le loro foto più spesso di altre.
Globale, gli esperimenti hanno mostrato che gli algoritmi hanno avuto un'influenza significativa sulle decisioni dei partecipanti su chi votare o su chi inviare messaggi. Per le decisioni politiche, la manipolazione esplicita ha influenzato significativamente le decisioni, mentre la manipolazione segreta non era efficace. L'effetto opposto è stato visto per le decisioni di datazione.
I ricercatori ipotizzano che questi risultati potrebbero riflettere la preferenza delle persone per i consigli espliciti umani quando si tratta di questioni soggettive come appuntamenti, mentre le persone potrebbero preferire consigli algoritmici su decisioni politiche razionali.
Alla luce delle loro scoperte, gli autori esprimono sostegno per iniziative che cercano di aumentare l'affidabilità di A.I., come le Linee guida etiche per l'AI affidabile della Commissione europea e il programma AI spiegabile della DARPA (XAI). Ancora, avvertono che è necessaria più ricerca pubblicamente disponibile per comprendere la vulnerabilità umana agli algoritmi.
Nel frattempo, i ricercatori chiedono sforzi per educare il pubblico sui rischi della fiducia cieca nelle raccomandazioni degli algoritmi. Evidenziano anche la necessità di discussioni sulla proprietà dei dati che guidano questi algoritmi.
Gli autori aggiungono:"Se un algoritmo fittizio e semplicistico come il nostro può raggiungere un tale livello di persuasione senza stabilire profili effettivamente personalizzati dei partecipanti (e utilizzando in tutti i casi le stesse fotografie), un algoritmo più sofisticato come quelli con cui le persone interagiscono nella loro vita quotidiana dovrebbe certamente essere in grado di esercitare un'influenza molto più forte".