• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • L'intelligenza artificiale in Australia deve diventare etica, quindi abbiamo un piano

    L'intelligenza artificiale deve essere sviluppata con un quadro etico. Credito:Shutterstock/Alexander Supertramp

    La questione se la tecnologia sia buona o cattiva dipende da come viene sviluppata e utilizzata. In nessun luogo è più attuale che nelle tecnologie che utilizzano l'intelligenza artificiale.

    Se sviluppato e utilizzato in modo appropriato, l'intelligenza artificiale (AI) ha il potenziale per trasformare il modo in cui viviamo, opera, comunicare e viaggiare.

    Sono in fase di sviluppo nuove tecnologie mediche basate sull'intelligenza artificiale per migliorare l'assistenza ai pazienti. Ci sono indicazioni convincenti che i veicoli autonomi miglioreranno la sicurezza e ridurranno il pedaggio stradale. L'apprendimento automatico e l'automazione stanno semplificando i flussi di lavoro e ci consentono di lavorare in modo più intelligente.

    Intorno al mondo, La tecnologia abilitata all'intelligenza artificiale è sempre più adottata dagli individui, governi, organizzazioni e istituzioni. Ma insieme al vasto potenziale per migliorare la nostra qualità di vita, rappresenta un rischio per i nostri diritti umani e le nostre libertà fondamentali.

    un'adeguata supervisione, la guida e la comprensione del modo in cui l'IA viene utilizzata e sviluppata in Australia devono essere prioritarie.

    L'intelligenza artificiale impazzita potrebbe evocare immagini dei film di Terminator ed Ex Machina, ma è molto più semplice, questioni fondamentali che devono essere affrontate al momento, come:

    • come vengono utilizzati i dati per sviluppare l'IA
    • se un sistema di intelligenza artificiale viene utilizzato in modo equo
    • in quali situazioni dovremmo continuare a fare affidamento sul processo decisionale umano?

    Abbiamo un piano etico AI

    Ecco perchè, in collaborazione con il governo e l'industria, abbiamo sviluppato un quadro etico per l'IA in Australia. L'obiettivo è catalizzare la discussione su come l'IA dovrebbe essere utilizzata e sviluppata in Australia.

    Il quadro etico esamina vari casi di studio da tutto il mondo per discutere di come l'IA è stata utilizzata in passato e degli impatti che ha avuto. I casi di studio ci aiutano a capire dove le cose sono andate storte e come evitare di ripetere gli errori del passato.

    Abbiamo anche esaminato ciò che veniva fatto in tutto il mondo per affrontare le preoccupazioni etiche relative allo sviluppo e all'uso dell'IA.

    Sulla base dei problemi principali e degli impatti dell'IA, sono stati identificati otto principi per supportare l'uso etico e lo sviluppo dell'IA in Australia.

    1. Genera benefici netti: Il sistema di IA deve generare benefici per le persone superiori ai costi.
    2. Non fare danni: I sistemi di intelligenza artificiale civili non devono essere progettati per danneggiare o ingannare le persone e dovrebbero essere implementati in modo da ridurre al minimo qualsiasi esito negativo.
    3. Conformità normativa e legale: Il sistema di IA deve essere conforme a tutte le pertinenti norme internazionali, locale australiano, obblighi statali/territoriali e del governo federale, regolamenti e leggi.
    4. Protezione della privacy: Qualsiasi sistema, compresi i sistemi di intelligenza artificiale, deve garantire che i dati privati ​​delle persone siano protetti e mantenuti riservati e prevenire violazioni dei dati che potrebbero causare reputazioni, psicologico, finanziario, professionale o di altro tipo.
    5. Equità: Lo sviluppo o l'uso del sistema di IA non deve comportare un'ingiusta discriminazione nei confronti degli individui, comunità o gruppi. Ciò richiede un'attenzione particolare per garantire che i "dati di addestramento" siano privi di pregiudizi o caratteristiche che potrebbero causare un comportamento scorretto dell'algoritmo.
    6. Trasparenza e spiegabilità: Le persone devono essere informate quando viene utilizzato un algoritmo che ha un impatto su di loro e dovrebbero essere fornite informazioni su quali informazioni l'algoritmo utilizza per prendere decisioni.
    7. Contestabilità: Quando un algoritmo ha un impatto su una persona, deve esserci un processo efficiente per consentire a quella persona di contestare l'uso o l'output dell'algoritmo.
    8. Responsabilità: Le persone e le organizzazioni responsabili della creazione e dell'implementazione degli algoritmi di intelligenza artificiale dovrebbero essere identificabili e responsabili degli impatti di tale algoritmo, anche se gli impatti non sono intenzionali.

    Oltre ai principi fondamentali, nel quadro vengono identificati vari elementi del kit di strumenti che potrebbero essere utilizzati per supportare questi principi. Questi includono valutazioni di impatto, monitoraggio continuo e consultazione pubblica.

    Un piano, e l'azione?

    Ma i principi e gli obiettivi etici possono arrivare solo fino a un certo punto. Ad un certo punto dovremo metterci al lavoro per decidere come implementarli e raggiungerli.

    Ci sono varie complessità da considerare quando si discute dell'uso etico e dello sviluppo dell'IA. La vasta portata della tecnologia ha il potenziale per avere un impatto su ogni aspetto della nostra vita.

    Le applicazioni di intelligenza artificiale sono già in uso in tutte le famiglie, imprese e governi, la maggior parte degli australiani ne sta già subendo l'impatto.

    È urgente esaminare gli effetti che l'IA ha sui gruppi vulnerabili e minoritari, assicurandoci di proteggere questi individui e comunità da pregiudizi, discriminazione e sfruttamento. (Ricorda Tay, il chatbot razzista?)

    C'è anche il fatto che l'IA utilizzata in Australia sarà spesso sviluppata in altri paesi, quindi come ci assicuriamo che aderisca agli standard e alle aspettative australiane?

    Tu dici

    Il framework esplora questi problemi e costituisce alcuni dei primi passi dell'Australia nel viaggio verso lo sviluppo e l'uso positivi dell'IA. Ma il vero progresso ha bisogno del contributo delle parti interessate attraverso il governo, attività commerciale, il mondo accademico e la società in generale.

    Leggi di più:Attento a come tratti l'IA di oggi:potrebbe vendicarsi in futuro

    Ecco perché il documento di discussione del quadro etico è ora aperto al commento pubblico. Hai tempo fino al 31 maggio 2019, per dire la tua sul futuro digitale australiano.

    Con un approccio proattivo allo sviluppo etico dell'IA, L'Australia può fare di più che limitarsi a mitigare qualsiasi rischio. Se riusciamo a costruire l'intelligenza artificiale per un lavoro più equo, possiamo assicurarci un vantaggio competitivo e salvaguardare i diritti degli australiani.

    Emma Schleiger, Ricercatore, CSIRO e Stefan Hajkowicz, Scienziato principale senior, Strategia e lungimiranza, Dati61

    Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.

    Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com