• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  science >> Scienza >  >> Altro
    Una nuova idea matematica frena il pregiudizio dell'intelligenza artificiale verso scelte commerciali non etiche e costose

    Credito:CC0 Dominio Pubblico

    Ricercatori dell'Università di Warwick, Imperial College di Londra, EPFL (Losanna) e Sciteb Ltd hanno trovato un mezzo matematico per aiutare le autorità di regolamentazione e le imprese a gestire e controllare i pregiudizi dei sistemi di intelligenza artificiale per rendere non etici, e scelte commerciali potenzialmente molto costose e dannose:un occhio etico sull'IA.

    L'intelligenza artificiale (AI) è sempre più utilizzata in situazioni commerciali. Prendi in considerazione, ad esempio, l'utilizzo dell'intelligenza artificiale per impostare i prezzi dei prodotti assicurativi da vendere a un determinato cliente. Ci sono ragioni legittime per impostare prezzi diversi per persone diverse, ma può anche essere vantaggioso "giocare" alla loro psicologia o alla loro volontà di guardarsi intorno.

    L'IA ha un vasto numero di potenziali strategie tra cui scegliere, ma alcuni non sono etici e comporteranno non solo un costo morale ma una potenziale sanzione economica significativa poiché le parti interessate applicheranno alcune sanzioni se scopriranno che tale strategia è stata utilizzata:i regolatori possono imporre multe significative di miliardi di dollari, Sterline o euro e i clienti potrebbero boicottarti, o entrambi.

    Quindi, in un ambiente in cui le decisioni vengono prese sempre più spesso senza l'intervento umano, esiste quindi un forte incentivo a sapere in quali circostanze i sistemi di IA potrebbero adottare una strategia non etica e ridurre tale rischio o eliminarlo del tutto, se possibile.

    Matematici e statistici dell'Università di Warwick, Imperiale, EPFL e Sciteb Ltd si sono uniti per aiutare le imprese e le autorità di regolamentazione a creare un nuovo "principio di ottimizzazione non etico" e fornire una formula semplice per stimarne l'impatto. Hanno esposto tutti i dettagli in un documento intitolato "Un principio di ottimizzazione non etico", pubblicato in Royal Society Scienza Aperta mercoledì 1 luglio 2020.

    I quattro autori dell'articolo sono Nicholas Beale di Sciteb Ltd; Heather Battey del Dipartimento di Matematica, Imperial College di Londra; Anthony C. Davison dell'Istituto di Matematica, Ecole Polytechnique Fédérale de Lausanne; e il professor Robert MacKay dell'Istituto di matematica dell'Università di Warwick.

    Il professor Robert MacKay dell'Istituto di matematica dell'Università di Warwick ha dichiarato:

    "Il nostro "principio di ottimizzazione non etico" suggerito può essere utilizzato per aiutare le autorità di regolamentazione, il personale addetto alla conformità e altri per trovare strategie problematiche che potrebbero essere nascoste in un ampio spazio strategico. Ci si può aspettare che l'ottimizzazione scelga in modo sproporzionato molte strategie non etiche, la cui ispezione dovrebbe mostrare dove è probabile che sorgano problemi e quindi suggerire come modificare l'algoritmo di ricerca dell'IA per evitarli in futuro.

    "Il Principio suggerisce anche che potrebbe essere necessario ripensare al modo in cui l'IA opera in spazi strategici molto ampi, in modo che i risultati non etici siano esplicitamente respinti nel processo di ottimizzazione/apprendimento."


    © Scienza https://it.scienceaq.com