• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • I nuovi principi di Google sull'IA devono essere migliori nel proteggere i diritti umani

    Ci sono crescenti preoccupazioni sui potenziali rischi dell'IA e crescenti critiche nei confronti dei giganti della tecnologia. Sulla scia di quello che è stato chiamato un contraccolpo dell'IA o "techlash", gli stati e le imprese si stanno rendendo conto che la progettazione e lo sviluppo dell'IA devono essere etici, avvantaggiare la società e proteggere i diritti umani.

    Negli ultimi mesi, Google ha dovuto affrontare le proteste del proprio personale contro il lavoro di intelligenza artificiale dell'azienda con le forze armate statunitensi. Il Dipartimento della Difesa degli Stati Uniti ha incaricato Google di sviluppare l'intelligenza artificiale per analizzare i filmati dei droni in quello che è noto come "Progetto Maven".

    Un portavoce di Google avrebbe dichiarato:"il contraccolpo è stato terribile per l'azienda" e "spetta a noi mostrare leadership". Ha fatto riferimento a "piani per svelare nuovi principi etici". Questi principi sono stati ora rilasciati.

    amministratore delegato di Google, Sundar Pichar, ha riconosciuto che "questo settore è dinamico e in evoluzione" e ha affermato che Google sarebbe disposto "ad adattare il nostro approccio man mano che impariamo nel tempo". Questo è importante perché, mentre i principi sono un inizio, sono necessari più lavoro e impegni più concreti se Google vuole diventare efficace nella protezione dei diritti umani.

    I principi di Google sull'IA

    1. Sii socialmente utile.
    2. Evita di creare o rafforzare pregiudizi sleali.
    3. Essere costruito e testato per la sicurezza.
    4. Sii responsabile nei confronti delle persone.
    5. Incorporare i principi di progettazione della privacy.
    6. Sostenere elevati standard di eccellenza scientifica.
    7. Essere messi a disposizione per usi conformi a questi principi.

    Google si impegna inoltre a non perseguire:

    1. Tecnologie che causano o possono causare danni complessivi.
    2. Armi o altre tecnologie il cui scopo principale o implementazione è causare o facilitare direttamente lesioni alle persone.
    3. Tecnologie che raccolgono o utilizzano informazioni per la sorveglianza, violare le norme accettate a livello internazionale.
    4. Tecnologie il cui scopo contravviene ai principi ampiamente accettati del diritto internazionale e dei diritti umani.

    Ma ci sono poche specifiche su come lo farà effettivamente.

    Le applicazioni di intelligenza artificiale possono causare un'ampia gamma di danni

    I principi di Google riconoscono il rischio di parzialità dell'IA e la sua minaccia alla privacy. Questo è importante alla luce dei risultati che gli algoritmi di ricerca di Google possono riprodurre stereotipi razziali e di genere. Ma i principi non riconoscono i rischi più ampi per tutti i diritti umani e la necessità di proteggerli. Per esempio, algoritmi distorti non solo provocano discriminazione, ma possono anche influenzare l'accesso alle opportunità di lavoro.

    A parte il motore di ricerca, Anche le altre attività di Google potrebbero sollevare questioni relative ai diritti umani. Google ha creato la società Jigsaw, che utilizza l'intelligenza artificiale per curare i contenuti online nel tentativo di affrontare un linguaggio offensivo, minacce, e molestie online. Ma la moderazione dei contenuti può anche rappresentare una minaccia per il diritto alla libertà di espressione.

    Google Brain utilizza l'apprendimento automatico per prevedere i risultati sulla salute dalle cartelle cliniche, e Google Cloud collaboreranno con Fitbit. Entrambi questi esempi sollevano problemi di privacy e protezione dei dati. I nostri colleghi si sono anche chiesti se partnership come Google DeepMind e il SSN beneficino o minano gli obblighi degli stati di mettere in atto un sistema sanitario che "offri alle persone pari opportunità di godere del più alto livello di salute raggiungibile".

    Cosa dovrebbe fare Google?

    L'approccio generale di Google dovrebbe basarsi sulla ricerca di modi in cui l'intelligenza artificiale sia vantaggiosa per la società senza violare i diritti umani. Spiegando il suo primo principio di essere "socialmente vantaggioso, Google afferma che "procederà solo laddove riteniamo che i probabili benefici complessivi superino sostanzialmente i rischi e gli svantaggi prevedibili". Ma un approccio che bilanci i rischi contro i benefici non è compatibile con i diritti umani. Uno stato o un'impresa, come Google, non può sviluppare un'IA che prometta di avvantaggiare alcune persone a scapito dei diritti umani di pochi o di una particolare comunità. Piuttosto, deve trovare un modo per garantire che l'IA non danneggi i diritti umani.

    Così, Google deve considerare appieno gli effetti dell'IA sui diritti umani durante tutto il suo sviluppo e implementazione. Soprattutto così, perché possono sorgere rischi anche se la tecnologia non è progettata per scopi dannosi. Gli standard e le norme internazionali sui diritti umani, inclusi i Principi guida delle Nazioni Unite su imprese e diritti umani, coprono sia lo scopo che l'effetto delle azioni delle imprese, compreso Google, sui diritti umani. Queste responsabilità esistenti devono essere riflesse molto più chiaramente nei principi di Google, in particolare sull'azione positiva che Google intraprenderà per proteggere i danni ai diritti umani, anche se involontario.

    Per essere responsabile di come sviluppa e distribuisce l'IA, Google deve andare oltre l'attuale linguaggio provvisorio sull'incoraggiare architetture di privacy e garantire "una direzione e un controllo umani appropriati" senza spiegare chi decide cosa è appropriato e su quali basi. Deve incorporare i diritti umani nella progettazione dell'IA e incorporare nei principi salvaguardie come le valutazioni d'impatto sui diritti umani e la supervisione indipendente e i processi di revisione.

    I principi dovrebbero anche specificare in che modo sarà posto rimedio ai danni ai diritti umani e come gli individui e i gruppi interessati possono presentare un reclamo, che attualmente è assente.

    La strada davanti?

    Lanciando i principi, Il CEO di Google Sundar Pichar ha riconosciuto che il modo in cui l'intelligenza artificiale viene sviluppata e utilizzata avrà "un impatto significativo sulla società per molti anni a venire". Il ruolo pionieristico di Google nell'AI significa che l'azienda, secondo Sundar, "sento [s] una profonda responsabilità per farlo bene."

    Sebbene i principi siano un inizio importante, hanno bisogno di molto più sviluppo se vogliamo essere certi che i nostri diritti umani saranno protetti. Il prossimo passo è che Google incorpori i diritti umani, garanzie e processi di responsabilità durante lo sviluppo dell'IA. Questo è ciò che è necessario per "ottenere questo diritto".

    Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com