Come impedire che le città vengano trasformate in giungle di intelligenza artificiale
Nella City di Londra, le telecamere di sicurezza si trovano anche nei cimiteri. Nel 2021, l'ufficio del sindaco ha lanciato uno sforzo per stabilire linee guida per la ricerca sulle tecnologie emergenti. Credito:Acabashi/Wikimedia, CC BY
Man mano che l'intelligenza artificiale diventa sempre più onnipresente, il suo potenziale e le sfide che presenta stanno diventando sempre più a fuoco. Il modo in cui bilanciamo i rischi e le opportunità si sta configurando come una delle questioni determinanti della nostra era. Più o meno allo stesso modo in cui le città sono emerse come centri di innovazione nella cultura, nella politica e nel commercio, quindi stanno definendo le frontiere della governance dell'IA.
Alcuni esempi di come le città hanno preso l'iniziativa includono la Cities Coalition for Digital Rights, la Dichiarazione di Montreal per un'IA responsabile e il Dialogo aperto sull'etica dell'IA. Altri possono essere trovati nel divieto di San Francisco della tecnologia di riconoscimento facciale e nella spinta di New York City per regolamentare la vendita di sistemi di assunzione automatizzati e la creazione di un responsabile della gestione e delle politiche degli algoritmi. Anche gli istituti urbani, le università e altri centri educativi sono andati avanti con una serie di iniziative per l'etica dell'IA.
Questi sforzi indicano un paradigma emergente che è stato chiamato AI Localism. Fa parte di un fenomeno più ampio, spesso chiamato New Localism, che coinvolge le città in prima linea nella regolamentazione e nella definizione delle politiche per sviluppare approcci specifici al contesto per una varietà di problemi e sfide. Abbiamo anche assistito a una maggiore diffusione degli approcci incentrati sulla città all'interno dei quadri del diritto internazionale.
In tal modo, le autorità municipali stanno colmando le lacune lasciate da quadri di governance statali, nazionali o globali insufficienti relativi all'IA e ad altre questioni complesse. Gli ultimi anni, ad esempio, hanno visto l'emergere del "localismo a banda larga", in cui i governi locali affrontano il divario digitale; e "localismo della privacy", entrambi in risposta alle sfide poste dal maggiore utilizzo dei dati per le forze dell'ordine o il reclutamento.
Il localismo dell'IA comprende un'ampia varietà di problemi, parti interessate e contesti. Oltre ai divieti del riconoscimento facciale basato sull'intelligenza artificiale, i governi e le istituzioni locali stanno esaminando le norme sugli appalti relative all'utilizzo dell'IA da parte di enti pubblici, i registri pubblici dei sistemi di intelligenza artificiale dei governi locali e i programmi di istruzione pubblica sull'IA. Ma anche se le iniziative e gli studi di casi si moltiplicano, manca ancora un metodo sistematico per valutarne l'efficacia, o addirittura la necessità stessa. Ciò limita la capacità dei responsabili politici di sviluppare una regolamentazione adeguata e, più in generale, ostacola la crescita del settore.
Costruire un quadro di localizzazione AI
Di seguito sono riportati dieci principi per aiutare a sistematizzare il nostro approccio all'IA Localism. Considerati insieme, si sommano a un quadro incipiente per l'attuazione e la valutazione di iniziative in tutto il mondo:
- I principi forniscono una stella polare per la governance: Stabilire e articolare un chiaro insieme di principi guida è un punto di partenza essenziale. Ad esempio, l'Emerging Technology Charter for London, lanciata dall'ufficio del sindaco nel 2021 per delineare "linee guida pratiche ed etiche" per la ricerca sulle tecnologie emergenti e sui progetti pilota di tecnologie per le città intelligenti, ne è un esempio. Progetti simili esistono a Nantes, in Francia, che ha lanciato una carta dei dati per sottolineare l'impegno del governo locale per la sovranità, la protezione, la trasparenza e l'innovazione dei dati. Tali sforzi aiutano le parti interessate a tracciare un percorso che bilancia efficacemente il potenziale e le sfide poste dall'IA, affermando al contempo un impegno per l'apertura e la trasparenza sull'uso dei dati per il pubblico.
- L'impegno pubblico fornisce una licenza social: Stabilire la fiducia è essenziale per promuovere un uso responsabile della tecnologia, nonché una più ampia accettazione e adozione da parte del pubblico. Forme di coinvolgimento pubblico - crowdsourcing, campagne di sensibilizzazione, mini assemblee e altro - possono aiutare a creare fiducia e dovrebbero far parte di un processo deliberativo intrapreso dai responsabili politici. Ad esempio, il Dipartimento per l'occupazione e l'edilizia eque della California ha tenuto la sua prima audizione pubblica virtuale con cittadini e gruppi di difesa dei lavoratori sull'uso crescente dell'IA nelle assunzioni e nelle risorse umane e sul potenziale pregiudizio tecnologico negli appalti.
- L'alfabetizzazione AI consente un coinvolgimento significativo: L'obiettivo dell'alfabetizzazione AI è incoraggiare la familiarità con la tecnologia stessa e con le questioni etiche, politiche, economiche e culturali associate. Ad esempio, il Montreal AI Ethics Institute, un'organizzazione no-profit focalizzata sul progresso dell'alfabetizzazione AI, fornisce informazioni gratuite, tempestive e facilmente digeribili sull'IA e sugli eventi relativi all'IA in tutto il mondo.
- Attingere alle competenze locali: I responsabili politici dovrebbero attingere alle competenze dell'IA delle città istituendo o supportando centri di ricerca. Due esempi sono la Confederation of Laboratories for Artificial Intelligence Research in Europe (CLAIRE), un progetto paneuropeo che concentra l'attenzione europea sugli usi dell'IA nelle città e "How Busy Is Toon", un sito web sviluppato dal Newcastle City Council e dall'Università di Newcastle per fornire informazioni sui trasporti in tempo reale sul centro città.
- Innovare nel modo in cui viene fornita trasparenza: Per creare fiducia e favorire il coinvolgimento, AI Localism dovrebbe comprendere principi e pratiche di trasparenza collaudati nel tempo. Ad esempio, Amsterdam e Helsinki rivelano l'uso dell'IA e spiegano come vengono impiegati gli algoritmi per scopi specifici. Inoltre, AI Localism può innovare nel modo in cui viene fornita trasparenza, instillando consapevolezza e sistemi per identificare e superare i "punti ciechi dell'IA" e altre forme di pregiudizio inconscio.
- Stabilire mezzi di responsabilità e supervisione: Una delle caratteristiche principali di AI Localism è il riconoscimento della necessità di responsabilità e supervisione per garantire che i principi di una governance reattiva vengano rispettati. Gli esempi includono l'Algorithms Management and Policy Officer di New York City, il Consiglio consultivo di Singapore sull'uso etico dell'IA e dei dati e il gruppo di lavoro consultivo sulla sorveglianza di Seattle.
- Confini del segnale attraverso leggi e politiche vincolanti: I principi sono validi solo nella misura in cui vengono implementati o applicati. La legislazione di ratifica, come la legge sulla privacy biometrica di New York City, che richiede avvisi chiari che i dati biometrici vengono raccolti dalle aziende, limita il modo in cui le aziende possono utilizzare tali dati. Proibisce inoltre la vendita e il trarre profitto dai dati invia un chiaro messaggio ai consumatori che i loro diritti e protezioni sui dati sono rispettati e tiene le aziende responsabili del rispetto dei privilegi di privacy.
- Utilizzare gli appalti per dare forma a mercati dell'IA responsabili: Come hanno fatto i governi municipali e di altro tipo in altri settori della vita pubblica, le città dovrebbero utilizzare le politiche di appalto per incoraggiare iniziative di IA responsabili. Ad esempio, il Consiglio di Berkeley, in California, ha approvato un'ordinanza che richiede ai dipartimenti pubblici di giustificare l'uso di nuove tecnologie di sorveglianza e che i vantaggi di questi strumenti superano i danni prima dell'appalto.
- Stabilire collaborazioni di dati per affrontare le asimmetrie: Le collaborazioni sui dati sono una forma emergente di partnership intersettoriale, in cui i dati privati vengono riutilizzati e utilizzati per il bene pubblico. Oltre a produrre nuove intuizioni e innovazioni, tali partnership possono anche essere potenti strumenti per abbattere le asimmetrie di dati che sono alla base e guidano così tante disuguaglianze socioeconomiche più ampie. Incoraggiare la collaborazione sui dati, identificando possibili partnership e facendo incontrare domanda e offerta, è quindi una componente importante di AI Localism. Gli sforzi iniziali includono Amsterdam Data Exchange, che consente la condivisione sicura dei dati per affrontare problemi locali.
- Rendere strategico il buon governo: Troppe strategie di IA non includono la governance e troppi approcci di governance non sono strategici. È quindi fondamentale che le città abbiano una visione chiara di come vedono i dati e l'IA utilizzati per migliorare il benessere locale. Tracciare una strategia per l'intelligenza artificiale, come è stato intrapreso dal consiglio comunale di Barcellona nel 2021, può creare strade per incorporare l'uso intelligente dell'IA tra le agenzie e aprire la consapevolezza dell'IA ai residenti per rendere l'uso responsabile dei dati e le considerazioni un filo conduttore piuttosto che un esercizio a silos all'interno del locale governo.
Il localismo dell'IA è un'area emergente e sia la sua pratica che la sua ricerca rimangono in evoluzione. La tecnologia stessa continua a cambiare rapidamente, offrendo una sorta di obiettivo mobile per la governance e la regolamentazione. Il suo stato di flusso evidenzia la necessità del tipo di quadro sopra delineato. Invece di recuperare il ritardo, rispondendo in modo reattivo alle successive ondate di innovazione tecnologica, i responsabili politici possono rispondere in modo più coerente e responsabile, partendo da una base di principi che tenga conto delle esigenze spesso contrastanti dei vari stakeholder. + Esplora ulteriormente
Per costruire città sostenibili, coinvolgi chi le abita
Questo articolo è stato ripubblicato da The Conversation con licenza Creative Commons. Leggi l'articolo originale.