Sai cosa succede quando condividi i tuoi dati? Credito:mtkang/shutterstock.com
Ogni aspetto della vita può essere guidato da algoritmi di intelligenza artificiale:dalla scelta del percorso da prendere per il tuo tragitto giornaliero, a decidere chi portare ad un appuntamento, a complesse questioni legali e giudiziarie come la polizia predittiva.
Le grandi aziende tecnologiche come Google e Facebook utilizzano l'intelligenza artificiale per ottenere approfondimenti sulla loro gigantesca raccolta di dati dettagliati sui clienti. Ciò consente loro di monetizzare le preferenze collettive degli utenti attraverso pratiche come il micro-targeting, una strategia utilizzata dagli inserzionisti per indirizzare in modo ristretto gruppi specifici di utenti.
In parallelo, molte persone ora si fidano delle piattaforme e degli algoritmi più dei propri governi e della società civile. Uno studio dell'ottobre 2018 ha suggerito che le persone dimostrano "apprezzamento per l'algoritmo, " nella misura in cui farebbero più affidamento sui consigli quando pensano che provenga da un algoritmo che da un essere umano.
Nel passato, gli esperti di tecnologia si sono preoccupati di un "divario digitale" tra coloro che potrebbero accedere ai computer e a Internet e coloro che non potrebbero. Le famiglie con minor accesso alle tecnologie digitali sono svantaggiate nella loro capacità di guadagnare denaro e accumulare competenze.
Ma, mentre i dispositivi digitali proliferano, il divario non riguarda più solo l'accesso. In che modo le persone affrontano il sovraccarico di informazioni e la pletora di decisioni algoritmiche che permeano ogni aspetto della loro vita?
Gli utenti più esperti si stanno allontanando dai dispositivi e stanno diventando consapevoli di come gli algoritmi influenzano le loro vite. Nel frattempo, i consumatori che hanno meno informazioni si affidano ancora di più agli algoritmi per guidare le loro decisioni.
La salsa segreta dietro l'intelligenza artificiale
La ragione principale del nuovo digital divide, secondo me come uno che studia i sistemi informativi, è che così poche persone capiscono come funzionano gli algoritmi. Per la maggior parte degli utenti, gli algoritmi sono visti come una scatola nera.
Gli algoritmi di intelligenza artificiale acquisiscono dati, adattarli a un modello matematico e fare una previsione, che vanno da quali canzoni potrebbero piacerti a quanti anni qualcuno dovrebbe passare in prigione. Questi modelli sono sviluppati e ottimizzati in base ai dati passati e al successo dei modelli precedenti. La maggior parte delle persone, anche a volte gli stessi progettisti di algoritmi, non sanno davvero cosa succede all'interno del modello.
I ricercatori sono da tempo preoccupati per l'equità algoritmica. Ad esempio, Lo strumento di reclutamento basato sull'intelligenza artificiale di Amazon si è rivelato licenziare le candidate. Il sistema di Amazon stava estraendo selettivamente parole implicitamente di genere - parole che gli uomini hanno maggiori probabilità di usare nel linguaggio quotidiano, come "eseguito" e "catturato".
Altri studi hanno dimostrato che gli algoritmi giudiziari sono di parte razziale, condannare i poveri imputati neri più a lungo di altri.
Nell'ambito del Regolamento generale sulla protezione dei dati nell'Unione europea, recentemente approvato, le persone hanno "diritto alla spiegazione" dei criteri che gli algoritmi utilizzano nelle loro decisioni. Questa legislazione tratta il processo decisionale algoritmico come un ricettario. Il pensiero va che se capisci la ricetta, puoi capire come l'algoritmo influisce sulla tua vita.
Nel frattempo, alcuni ricercatori di intelligenza artificiale hanno spinto per algoritmi che siano equi, responsabile e trasparente, oltre che interpretabile, il che significa che dovrebbero arrivare alle loro decisioni attraverso processi che gli esseri umani possono comprendere e di cui fidarsi.
Dovresti rimanere connesso o staccare la spina? Credito:pryzmat/shutterstock.com
Che effetto avrà la trasparenza? In uno studio, gli studenti sono stati valutati da un algoritmo e hanno offerto diversi livelli di spiegazione su come i punteggi dei loro coetanei sono stati adeguati per ottenere un voto finale. Gli studenti con spiegazioni più trasparenti in realtà si fidavano meno dell'algoritmo. Questo, ancora, suggerisce un divario digitale:la consapevolezza algoritmica non porta a una maggiore fiducia nel sistema.
Ma la trasparenza non è una panacea. Anche quando il processo complessivo di un algoritmo è abbozzato, i dettagli potrebbero essere ancora troppo complessi per essere compresi dagli utenti. La trasparenza aiuterà solo gli utenti abbastanza sofisticati da comprendere le complessità degli algoritmi.
Per esempio, nel 2014, Ben Bernanke, l'ex presidente della Federal Reserve, è stato inizialmente negato un rifinanziamento ipotecario da un sistema automatizzato. La maggior parte delle persone che richiedono un tale rifinanziamento ipotecario non capirebbero come gli algoritmi possano determinare la loro solvibilità.
Rinunciare al nuovo ecosistema informativo
Mentre gli algoritmi influenzano così tanto la vita delle persone, solo una piccola parte dei partecipanti è abbastanza sofisticata da impegnarsi pienamente nel modo in cui gli algoritmi influenzano la loro vita.
Non ci sono molte statistiche sul numero di persone che conoscono l'algoritmo. Gli studi hanno trovato prove di ansia algoritmica, portando a un profondo squilibrio di potere tra le piattaforme che distribuiscono algoritmi e gli utenti che dipendono da loro.
Uno studio sull'utilizzo di Facebook ha rilevato che quando i partecipanti sono stati informati dell'algoritmo di Facebook per la cura dei feed di notizie, circa l'83% dei partecipanti ha modificato il proprio comportamento per cercare di sfruttare l'algoritmo, mentre circa il 10% ha ridotto l'utilizzo di Facebook.
Un rapporto del novembre 2018 del Pew Research Center ha rilevato che un'ampia maggioranza del pubblico nutriva preoccupazioni significative sull'uso di algoritmi per usi particolari. Ha scoperto che il 66% pensava che non sarebbe stato giusto per gli algoritmi calcolare i punteggi di finanza personale, mentre il 57% ha detto lo stesso sullo screening automatico del curriculum.
Una piccola parte degli individui esercita un certo controllo sul modo in cui gli algoritmi utilizzano i propri dati personali. Per esempio, la piattaforma Hu-Manity consente agli utenti di controllare la quantità di dati raccolti. L'enciclopedia online Everipedia offre agli utenti la possibilità di essere parti interessate nel processo di cura, il che significa che gli utenti possono anche controllare come le informazioni vengono aggregate e presentate loro.
Però, la stragrande maggioranza delle piattaforme non fornisce né tale flessibilità ai propri utenti finali né il diritto di scegliere come l'algoritmo utilizza le loro preferenze nella cura del proprio feed di notizie o nel consigliare loro i contenuti. Se ci sono opzioni, gli utenti potrebbero non conoscerli. Circa il 74% degli utenti di Facebook ha dichiarato in un sondaggio di non essere a conoscenza di come la piattaforma caratterizzi i propri interessi personali.
Secondo me, la nuova alfabetizzazione digitale non è usare un computer o essere su Internet, ma comprendere e valutare le conseguenze di uno stile di vita sempre connesso.
Questo stile di vita ha un impatto significativo sul modo in cui le persone interagiscono con gli altri; sulla loro capacità di prestare attenzione alle nuove informazioni; e sulla complessità dei loro processi decisionali.
L'aumento dell'ansia algoritmica può anche essere rispecchiato da cambiamenti paralleli nell'economia. Un piccolo gruppo di individui sta acquisendo i vantaggi dell'automazione, mentre molti lavoratori sono in una posizione precaria.
Rinunciare alla cura algoritmica è un lusso e un giorno potrebbe essere un simbolo di benessere disponibile solo per pochi eletti. La domanda è quindi quali saranno i danni misurabili per coloro che si trovano dalla parte sbagliata del divario digitale.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.