• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Problema etico dell'IA:astrazioni ovunque, ma dove sono le regole?

    Credito:CC0 Dominio pubblico

    Macchine che prendono decisioni su di noi:cosa potrebbe andare storto? Saggi, discorsi, seminari pongono questa domanda anno dopo anno mentre la ricerca sull'intelligenza artificiale fa progressi sorprendenti. Di conseguenza, i pregiudizi incorporati negli algoritmi sono solo uno dei tanti problemi.

    Jonathan Shaw, Editore manageriale, Rivista di Harvard , ha scritto all'inizio di quest'anno:"L'intelligenza artificiale può aggregare e valutare grandi quantità di dati che a volte sono al di là della capacità umana di analizzare senza aiuto, consentendo così all'IA di formulare raccomandazioni per le assunzioni, determinare in pochi secondi l'affidabilità creditizia dei richiedenti il ​​prestito, e prevedere le possibilità che i criminali recidino".

    Ancora, Che cosa potrebbe andare storto?

    "Lo sviluppo dell'IA ha bisogno di una forte guida morale se vogliamo evitare alcuni degli scenari più catastrofici previsti dai critici dell'IA, " ha detto Stephen Fleischresser, docente, Trinity College dell'Università di Melbourne, in Cosmo .

    Edd Gent in SingolaritàHub :"Preoccupazioni per la privacy, la trasparenza e la capacità degli algoritmi di distorcere il discorso sociale e politico in modi inaspettati hanno portato a una raffica di dichiarazioni da parte delle aziende, governi, e persino organizzazioni sovranazionali su come condurre uno sviluppo etico dell'IA".

    Così, la domanda diventa, chi si occupa del negozio AI? Se immaginiamo già cosa potrebbe andare storto con l'immagine AI, chi, quale individuo, quali gruppi, se del caso, stanno cercando di incanalare tutti i discorsi e assumere la leadership per un insieme di regole funzionanti?

    Una buona e tempestiva lettura di questo è emersa in Intelligenza della macchina della natura . Il giornale non ti dà l'unica soluzione ma scuote la conversazione. Come recita il titolo, "I principi da soli non possono garantire un'IA etica".

    L'autore, Brent Mittelstadt, è dell'Oxford Internet Institute, Università di Oxford, Oxford, Regno Unito e l'Istituto Alan Turing, Biblioteca britannica, Londra, UK.

    Fleischresser ha descritto Mittelstadt come "un etico la cui ricerca riguarda principalmente l'etica digitale in relazione agli algoritmi, apprendimento automatico, intelligenza artificiale, analisi predittiva, Big Data e sistemi medici esperti."

    Il problema non è stata la mancanza di chiacchiere; "L'etica dell'intelligenza artificiale (AI) è ora un argomento di discussione globale negli ambienti accademici e politici, " Ha dichiarato Mittelstadt. "Almeno 84 iniziative pubblico-private hanno prodotto dichiarazioni che descrivono principi di alto livello, valori e altri principi per guidare lo sviluppo etico, implementazione e governance dell'IA".

    Il problema è che con tutti i discorsi, le parti interessate ben intenzionate non sono andate molto oltre il cancello di partenza. Lo strato di supporto di affermazioni elevate e principi in grassetto può essere a posto, ma dov'è lo strato superiore? "La parte veramente difficile dell'etica:tradurre in realtà teorie normative, concetti e valori in buone pratiche che i professionisti dell'IA possono adottare, viene buttato giù per la strada come il proverbiale può."

    Mentre gli alti principi sono lodevoli, "Le iniziative di etica dell'IA hanno finora prodotto in gran parte vaghi, principi di alto livello e dichiarazioni di valore che promettono di guidare l'azione, ma in pratica forniscono poche raccomandazioni specifiche... Le dichiarazioni delle aziende e degli sviluppatori di intelligenza artificiale che si impegnano a rispettare principi etici di alto livello e codici di autoregolamentazione forniscono comunque ai responsabili delle politiche una ragione per non perseguire nuove normative".

    Mittelstadt ha affermato che "un approccio di principio può avere un impatto limitato sulla governance. Cosa manca:un quadro normativo unificato che stabilisca "chiari doveri fiduciari nei confronti degli interessati e degli utenti". Egli ha detto, significa che gli utenti "non possono fidarsi del fatto che gli sviluppatori agiranno nel loro migliore interesse quando mettono in pratica i principi etici".

    Il documento ha spiegato ciò che l'autore ha identificato come aree di preoccupazione per il futuro dell'etica dell'IA.

    La responsabilità legale e professionale è stata una delle aree chiave in discussione, ovvero, "la relativa mancanza di meccanismi di responsabilità legale e professionale". Perché questo è un problema:"Serio, l'impegno a lungo termine per quadri di autoregolamentazione non può essere dato per scontato."

    L'autore ha posto la domanda fondamentale:date queste debolezze nei meccanismi di responsabilità legale e professionale esistenti per l'IA, bisogna chiedersi:"basta definire buone intenzioni e sperare per il meglio? Senza meccanismi punitivi complementari e organi di governo che intervengono quando l'autogoverno fallisce, un approccio di principio corre il rischio di fornire semplicemente false assicurazioni di un'IA etica o affidabile".

    Dove andiamo da qui nell'etica dell'IA?

    L'autore ha affermato che questo approccio "di principio" richiede una supervisione cooperativa. Pensa a "strutture di responsabilità vincolanti e altamente visibili" insieme a "processi di implementazione e revisione chiari" a livello settoriale e organizzativo. "Le norme professionali e istituzionali possono essere stabilite definendo requisiti chiari per la progettazione inclusiva, revisione etica trasparente, documentazione di modelli e dataset, e controllo etico indipendente."

    © 2019 Science X Network




    © Scienza https://it.scienceaq.com