La settimana scorsa, il capo dell'autorità di regolamentazione elettorale australiana ha avvertito che l'organizzazione "non possiede gli strumenti legislativi o la capacità tecnica interna per scoraggiare, rilevare o gestire adeguatamente i falsi contenuti generati dall'intelligenza artificiale riguardanti il processo elettorale".
Questa osservazione, fatta ad una commissione del Senato sull’adozione dell’intelligenza artificiale (AI), non è un commento isolato. Il rapporto tra intelligenza artificiale e democrazia è l'argomento di molte conversazioni sempre più urgenti che si svolgono in tutto il mondo.
Più di 60 paesi si recheranno alle urne nel 2024, in quello che è stato definito “il più grande anno elettorale della storia”. Quest'anno l'Australia prevede di tenere elezioni nel Territorio del Nord e nel Queensland, con elezioni federali previste entro maggio 2025.
Allo stesso tempo, l’esplosione di strumenti di intelligenza artificiale generativa per testo, immagini, audio e video sta cambiando radicalmente il modo in cui gli australiani creano e interagiscono con le informazioni. Come possiamo mantenere l'integrità e la fiducia delle elezioni nell'era dell'intelligenza artificiale generativa?
Il rischio più evidente che l’intelligenza artificiale rappresenta per la democrazia è rappresentato dai contenuti sintetici (o “deepfakes”), che potrebbero essere utilizzati per disinformare gli elettori. Da un sondaggio del World Economic Forum condotto lo scorso anno è emerso che gli esperti hanno classificato la "disinformazione e disinformazione" e la "polarizzazione sociale" come il primo e il terzo rischio globale più grave per i prossimi due anni.
Questi rischi si stanno già manifestando. Negli Stati Uniti un consulente politico che ha utilizzato la voce sintetica del presidente americano Joe Biden nelle chiamate robotizzate rischia una multa di diversi milioni di dollari. In India, i video generati dall'intelligenza artificiale sono diventati sempre più comuni nella campagna elettorale di quest'anno.
Ma i deepfake e la disinformazione non sono gli unici rischi. L’intelligenza artificiale offre anche nuove opportunità. Nelle prove che ho fornito alla commissione del Senato e in una dichiarazione mia e dei miei colleghi del Tech Policy Design Center, sosteniamo che sia essenziale un dibattito nazionale più completo su questo argomento.
Una politica globale non si concentrerà esclusivamente sui deepfake che influenzano i voti, ma sulla salute della democrazia in un contesto più ampio. Elezioni libere ed eque sono una caratteristica della democrazia (anche se incredibilmente importante), ma ce ne sono molte altre.
L’impegno civico informato, la tolleranza e il pluralismo politico sono altri ingredienti importanti di un fiorente sistema democratico. Il sistema deve inoltre identificare e rispondere alle esigenze dell'elettorato e il governo deve essere trasparente e responsabile.
Pertanto, quando pensiamo al rapporto tra intelligenza artificiale e democrazia, dobbiamo pensare a preoccupazioni perenni come la rappresentanza politica, il giornalismo di interesse pubblico, l'alfabetizzazione mediatica e la coesione sociale.
Una politica equilibrata dovrebbe riconoscere che le tecnologie di intelligenza artificiale presentano opportunità per la democrazia, ma anche rischi.
Ad esempio, è assolutamente ragionevole temere che l'impegno civico informato possa risentire della tendenza dei modelli di intelligenza artificiale generativa ad "allucinare" e a produrre disinformazione.
Tuttavia, la stessa tecnologia può anche coinvolgere più elettori nel discorso civico:può convertire concetti politici complessi in contenuti riconoscibili o creare traduzioni automatiche in molte lingue.
Alcuni elementi delle sfide che affrontiamo non sono così nuovi o certi come sembrano.
L’intelligenza artificiale, e il boom dell’intelligenza artificiale in particolare, certamente introduce alcuni elementi senza precedenti nell’ecosistema democratico. Ma ci sono ancora lezioni che possiamo imparare dal passato.
Le preoccupazioni riguardo alle tecnologie che rendono le nuove forme di comunicazione ampiamente accessibili non sono nuove. Né vengono fatti sforzi per regolamentare e controllare chi può influenzare i flussi pubblici di informazioni.
Nel XV secolo l’invenzione della macchina da stampa di Gutenberg alimentò i timori su quelle che oggi potremmo chiamare “notizie false”. Esistono molti esempi più recenti, incluso ciò che abbiamo imparato dall'ascesa dei social media (che a loro volta stanno plasmando la storia dell'intelligenza artificiale e della democrazia).
Dobbiamo avere discernimento riguardo agli elementi dell’intelligenza artificiale generativa che sono fondamentalmente nuovi. Allo stesso tempo, possiamo cercare strumenti politici applicabili e lezioni dalle precedenti rivoluzioni tecnologiche dell'informazione.
L’Australia si trova a un bivio interessante. A meno di un anno dalle prossime elezioni federali, sono in fase di sviluppo diversi rami politici interconnessi.
Il dipartimento dell'industria sta lavorando a una risposta alla consultazione sull'IA sicura e responsabile dello scorso anno. Ciò includerà la considerazione delle regole per le filigrane obbligatorie nei contenuti generati dall'intelligenza artificiale.
Il dipartimento delle comunicazioni sta inoltre rielaborando proposte per nuovi poteri per l'Autorità australiana per le comunicazioni e i media. Ciò contribuirà a combattere la cattiva informazione e la disinformazione e potrebbe includere misure specifiche per l'intelligenza artificiale.
Allo stesso tempo è in corso la revisione dell’Online Safety Act 2021. Ciò potrebbe comportare la possibilità di affrontare il problema degli abusi online nei confronti di personaggi pubblici, che ancora una volta potrebbero coinvolgere l'intelligenza artificiale.
Propongo quattro azioni chiave che il governo australiano dovrebbe intraprendere.
In primo luogo, dovrebbe sviluppare un approccio nazionale coordinato al rapporto tra intelligenza artificiale e democrazia. I miei colleghi del Tech Policy Design Center hanno offerto raccomandazioni più dettagliate su come coordinare lo sviluppo delle politiche tecnologiche nazionali.
In secondo luogo, il governo dovrebbe prestare molta attenzione alle decine di elezioni nazionali che si terranno quest’anno in tutto il mondo. Possiamo monitorare il successo o il fallimento di politiche diverse in contesti diversi per imparare dalle esperienze degli altri.
In terzo luogo, possiamo imparare dalla Corea del Sud richiedendo ai politici di divulgare e contrassegnare qualsiasi deepfake o altro contenuto prodotto dall’intelligenza artificiale utilizzato nei materiali elettorali. La Corea del Sud ha vietato completamente ai politici di utilizzare materiali generati dall’intelligenza artificiale nelle loro campagne. Tuttavia, il limite inferiore che impone ai politici australiani di essere trasparenti potrebbe essere meno controverso e più facile da implementare.
E in quarto luogo, il governo deve assicurarsi che la Commissione elettorale australiana e l’Autorità australiana per le comunicazioni e i media dispongano del personale e delle risorse di cui hanno bisogno. Il loro compito di affrontare le sfide emergenti, comprese quelle poste dall'intelligenza artificiale, e di fornire agli australiani gli strumenti necessari per affrontare un panorama informativo complesso nell'anno a venire non sarà facile.
Questi passaggi dovrebbero essere solo l'inizio di un dibattito nazionale completo, equilibrato e informato su come possiamo sostenere la democrazia australiana per prosperare nell'era dell'intelligenza artificiale.
Fornito da The Conversation
Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi l'articolo originale.