Credito:Shutterstock
Penseresti che volare in aereo sia più pericoloso che guidare un'auto. In realtà è molto più sicuro, in parte perché l'industria aeronautica è fortemente regolamentata.
Le compagnie aeree devono attenersi a rigidi standard di sicurezza, test, addestramento, politiche e procedure, revisione e supervisione. E quando le cose vanno male, indaghiamo e tentiamo di correggere il problema per migliorare la sicurezza in futuro.
Non sono solo le compagnie aeree, o. Altri settori in cui le cose possono andare molto male, come prodotti farmaceutici e dispositivi medici, sono anche pesantemente regolamentati.
L'intelligenza artificiale è un settore relativamente nuovo, ma sta crescendo rapidamente e ha una grande capacità di fare del male. Come l'aviazione e i prodotti farmaceutici, ha bisogno di essere regolamentato.
L'intelligenza artificiale può fare grandi danni
Un'ampia gamma di tecnologie e applicazioni che rientrano nella categoria "intelligenza artificiale" ha iniziato a svolgere un ruolo significativo nelle nostre vite e nelle istituzioni sociali. Ma possono essere usati in modi dannosi, che stiamo già iniziando a vedere.
Nella vicenda "robodebt", Per esempio, l'agenzia di welfare del governo australiano Centrelink ha utilizzato la corrispondenza dei dati e il processo decisionale automatizzato per emettere avvisi di debito (spesso errati) ai beneficiari del welfare. Cosa c'è di più, l'onere della prova è stato invertito:gli individui erano tenuti a dimostrare di non essere in debito con il debito rivendicato.
Anche il governo del Nuovo Galles del Sud ha iniziato a utilizzare l'intelligenza artificiale per individuare i conducenti con i telefoni cellulari. Ciò comporta una sorveglianza pubblica estesa tramite telecamere di rilevamento dei telefoni cellulari che utilizzano l'intelligenza artificiale per rilevare automaticamente un oggetto rettangolare nelle mani del conducente e classificarlo come telefono.
Il riconoscimento facciale è un'altra applicazione di intelligenza artificiale sottoposta a un attento esame in tutto il mondo. Ciò è dovuto al suo potenziale di minare i diritti umani:può essere utilizzato per una sorveglianza diffusa e per reprimere la protesta pubblica, e il pregiudizio programmato può portare a imprecisioni e discriminazione razziale. Alcuni hanno persino chiesto una moratoria o un divieto assoluto perché è così pericoloso.
In diversi paesi, compresa l'Australia, L'intelligenza artificiale viene utilizzata per prevedere la probabilità che una persona commetta un crimine. È stato dimostrato che tali metodi predittivi hanno un impatto sproporzionato sui giovani indigeni e portano a pratiche di polizia oppressive.
Anche l'intelligenza artificiale che assiste i macchinisti sta entrando in uso, e in futuro possiamo aspettarci di vedere auto a guida autonoma e altri veicoli autonomi sulle nostre strade. La vita dipenderà da questo software.
L'approccio europeo
Una volta deciso che l'IA deve essere regolamentata, c'è ancora la questione di come farlo. Le autorità dell'Unione europea hanno recentemente presentato una serie di proposte su come regolamentare l'IA.
Il primo passo, litigano, consiste nel valutare i rischi che l'IA pone in diversi settori come i trasporti, assistenza sanitaria, e applicazioni governative come migrazione, giustizia penale e previdenza sociale. Esaminano anche le applicazioni di intelligenza artificiale che comportano un rischio di morte o lesioni, o avere un impatto sui diritti umani come il diritto alla privacy, uguaglianza, libertà e sicurezza, libertà di movimento e di riunione, sicurezza sociale e tenore di vita, e la presunzione di innocenza.
Maggiore è il rischio che si ritiene ponga un'applicazione di intelligenza artificiale, più regolamentazione dovrebbe affrontare. I regolamenti coprirebbero tutto, dai dati utilizzati per addestrare l'IA e il modo in cui vengono conservati i registri, a quanto devono essere trasparenti i creatori e gli operatori del sistema, test di robustezza e precisione, e requisiti per la supervisione umana. Ciò includerebbe la certificazione e l'assicurazione che l'uso dei sistemi di IA è sicuro, e non porta a esiti discriminatori o pericolosi.
Sebbene l'approccio dell'UE abbia punti di forza, anche le applicazioni AI apparentemente "a basso rischio" possono causare danni reali. Per esempio, Anche gli algoritmi di raccomandazione nei motori di ricerca sono discriminatori. La proposta dell'UE è stata anche criticata per aver cercato di regolamentare la tecnologia di riconoscimento facciale piuttosto che vietarla del tutto.
L'UE è leader mondiale nella regolamentazione della protezione dei dati. Se lo stesso accade con l'IA, è probabile che queste proposte servano da modello per altri paesi e si applichino a chiunque faccia affari con l'UE o anche ai cittadini dell'UE.
What's happening in Australia?
In Australia there are some applicable laws and regulations, but there are numerous gaps, and they are not always enforced. The situation is made more difficult by the lack of human rights protections at the federal level.
One prominent attempt at drawing up some rules for AI came last year from Data61, the data and digital arm of CSIRO. They developed an AI ethics framework built around eight ethical principles for AI.
These ethical principles aren't entirely irrelevant (number two is "do no harm, " for example), but they are unenforceable and therefore largely meaningless. Ethics frameworks like this one for AI have been criticized as "ethics washing", and a ploy for industry to avoid hard law and regulation.
Another attempt is the Human Rights and Technology project of the Australian Human Rights Commission. It aims to protect and promote human rights in the face of new technology.
We are likely to see some changes following the Australian Competition and Consumer Commission's recent inquiry into digital platforms. And a long overdue review of the Privacy Act 1988 (Cth) is slated for later this year.
These initiatives will hopefully strengthen Australian protections in the digital age, but there is still much work to be done. Stronger human rights protections would be an important step in this direction, to provide a foundation for regulation.
Before AI is adopted even more widely, we need to understand its impacts and put protections in place. To realize the potential benefits of AI, we must ensure that it is governed appropriately. Altrimenti, we risk paying a heavy price as individuals and as a society.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.