Credito:Spainter_vfx/Shutterstock.com
Film come 2001:Odissea nello spazio , Blade Runner e Il Terminator ha portato robot e computer canaglia sui nostri schermi cinematografici. Ma in questi giorni, questi classici spettacoli di fantascienza non sembrano così lontani dalla realtà.
Sempre più, noi viviamo, lavorare e giocare con tecnologie computazionali autonome e intelligenti. Questi sistemi includono software e hardware con la capacità di ragionare e prendere decisioni indipendenti. Lavorano per noi in fabbrica; decidono se possiamo ottenere un mutuo; tracciano e misurano la nostra attività e i livelli di fitness; puliscono i pavimenti del nostro soggiorno e tagliano i prati.
I sistemi autonomi e intelligenti hanno il potenziale per influenzare quasi ogni aspetto del nostro sociale, economico, vita politica e privata, compresi gli aspetti banali della quotidianità. Gran parte di questo sembra innocente, ma c'è motivo di preoccupazione. Le tecnologie computazionali impattano su ogni diritto umano, dal diritto alla vita al diritto alla privacy, libertà di espressione ai diritti sociali ed economici. Quindi, come possiamo difendere i diritti umani in un panorama tecnologico sempre più modellato dalla robotica e dall'intelligenza artificiale (AI)?
AI e diritti umani
Primo, c'è un vero timore che una maggiore autonomia delle macchine possa minare lo status degli esseri umani. Questa paura è aggravata dalla mancanza di chiarezza su chi sarà ritenuto responsabile, sia in senso giuridico che morale, quando le macchine intelligenti fanno del male. Ma non sono sicuro che il fulcro della nostra preoccupazione per i diritti umani debba davvero risiedere nei robot canaglia, come sembra attualmente. Piuttosto, dovremmo preoccuparci dell'uso umano dei robot e dell'intelligenza artificiale e del loro dispiegamento in politiche ingiuste e diseguali, militare, contesti economici e sociali.
Questa preoccupazione è particolarmente pertinente per quanto riguarda i sistemi di armi autonome letali (LEGGI), spesso descritti come robot killer. Mentre ci muoviamo verso una corsa agli armamenti dell'IA, studiosi e attivisti dei diritti umani come Christof Heyns, l'ex relatore speciale delle Nazioni Unite in materia extragiudiziale, esecuzioni sommarie o arbitrarie, temono che l'uso di LEGGI metta i sistemi robotici autonomi responsabili delle decisioni di vita e di morte, con limitato o nessun controllo umano.
L'IA rivoluziona anche il legame tra pratiche belliche e di sorveglianza. Gruppi come l'International Committee for Robot Arms Control (ICRAC) hanno recentemente espresso la loro opposizione alla partecipazione di Google al Project Maven, un programma militare che utilizza l'apprendimento automatico per analizzare i filmati di sorveglianza dei droni, che può essere utilizzato per le uccisioni extragiudiziali. L'ICRAC ha fatto appello a Google per garantire che i dati raccolti sui suoi utenti non vengano mai utilizzati per scopi militari, unendosi alle proteste dei dipendenti di Google per il coinvolgimento dell'azienda nel progetto. Google ha recentemente annunciato che non rinnoverà il suo contratto.
Nel 2013, l'estensione delle pratiche di sorveglianza è stata evidenziata dalle rivelazioni di Edward Snowden. Questi ci hanno insegnato molto sulla minaccia al diritto alla privacy e alla condivisione dei dati tra servizi di intelligence, agenzie governative e società private. La recente controversia che circonda la raccolta di dati personali da parte di Cambridge Analytica tramite l'uso di piattaforme di social media come Facebook continua a causare grave apprensione, questa volta per manipolazione e ingerenza nelle elezioni democratiche che ledono il diritto alla libertà di espressione.
Nel frattempo, gli analisti di dati critici sfidano le pratiche discriminatorie associate a quello che chiamano il "problema del ragazzo bianco" dell'IA. Questa è la preoccupazione che i sistemi di intelligenza artificiale formati sui dati esistenti replichino gli stereotipi razziali e di genere esistenti che perpetuano pratiche discriminatorie in settori come la polizia, decisioni giudiziarie o di lavoro.
Bot ambigui
La potenziale minaccia delle tecnologie computazionali ai diritti umani e alla fisica, La sicurezza politica e digitale è stata evidenziata in uno studio pubblicato di recente su The Malicious Use of Artificial Intelligence. Le preoccupazioni espresse in questo rapporto dell'Università di Cambridge devono essere prese sul serio. Ma come dobbiamo affrontare queste minacce? I diritti umani sono pronti per l'era della robotica e dell'intelligenza artificiale?
Ci sono sforzi in corso per aggiornare i principi dei diritti umani esistenti per questa era. Questi includono i principi guida e quadro delle Nazioni Unite su imprese e diritti umani, tentativi di scrivere una Magna Carta per l'era digitale e i Principi Asilomar AI del Future of Life Institute, che individuano linee guida per la ricerca etica, adesione ai valori e impegno per lo sviluppo benefico a lungo termine dell'IA.
Questi sforzi sono lodevoli ma non sufficienti. Governi e agenzie governative, partiti politici e società private, in particolare le principali aziende tecnologiche, devono impegnarsi per gli usi etici dell'IA. Abbiamo anche bisogno di un controllo legislativo efficace e applicabile.
Qualunque siano le nuove misure che introduciamo, è importante riconoscere che le nostre vite sono sempre più intrecciate con macchine autonome e sistemi intelligenti. Questo coinvolgimento migliora il benessere umano in aree come la ricerca medica e il trattamento, nel nostro sistema di trasporto, nelle strutture di assistenza sociale e negli sforzi per proteggere l'ambiente.
Ma in altre aree questo intreccio apre prospettive preoccupanti. Le tecnologie computazionali vengono utilizzate per osservare e tenere traccia delle nostre azioni e comportamenti, ripercorri i nostri passi, Nostra posizione, nostra salute, i nostri gusti e le nostre amicizie. Questi sistemi modellano il comportamento umano e ci spingono verso pratiche di auto-sorveglianza che limitano la nostra libertà e minano le idee e gli ideali dei diritti umani.
E qui sta il punto cruciale:la capacità di un duplice uso delle tecnologie computazionali offusca il confine tra pratiche benefiche e dannose. Cosa c'è di più, le tecnologie computazionali sono profondamente implicate nei rapporti di potere ineguali tra i singoli cittadini, lo stato e le sue agenzie, e società private. Se scardinato da efficaci sistemi nazionali e internazionali di controlli e contrappesi, rappresentano una minaccia reale e preoccupante per i nostri diritti umani.
Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.