• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Accenture lancerà un nuovo strumento per aiutare i clienti a identificare e correggere i pregiudizi sleali negli algoritmi di intelligenza artificiale

    Credito:CC0 Dominio Pubblico

    Accento, una società di servizi professionali, lancerà presto un nuovo strumento volto ad aiutare i suoi clienti a trovare pregiudizi ingiusti negli algoritmi di intelligenza artificiale. Una volta scoperto tale pregiudizio ingiusto, rappresentanti dell'azienda hanno detto alla stampa, possono essere rimossi.

    Mentre scienziati e ingegneri continuano a migliorare la tecnologia AI, sempre più aziende utilizzano strumenti basati sull'intelligenza artificiale per condurre affari. L'utilizzo di applicazioni AI per elaborare le domande di credito sta diventando una routine, Per esempio. Ma c'è stata la preoccupazione che tali applicazioni potrebbero avere pregiudizi incorporati, che producono risultati che potrebbero essere interpretati come ingiusti. Tali applicazioni potrebbero, Per esempio, hanno un pregiudizio razziale o di genere, che potrebbe distorcere i risultati. In risposta a tali affermazioni, molte grandi aziende hanno iniziato ad aggiungere filtri di pregiudizio alla loro suite di applicazioni. Ma come hanno sottolineato i rappresentanti di Accenture, le aziende più piccole probabilmente non hanno le risorse per farlo. Il nuovo strumento che hanno sviluppato sarà commercializzato pensando a queste aziende.

    Un prototipo del nuovo strumento (che alcuni hanno iniziato a chiamare Fairness Tool) è attualmente in fase di sperimentazione sul campo con un partner sconosciuto su domande di rischio di credito. La società ha annunciato che stanno pianificando un lancio morbido nel prossimo futuro. Hanno anche annunciato che lo strumento farà parte di un programma più ampio offerto dalla società chiamata AI Launchpad. Oltre agli strumenti di intelligenza artificiale, il programma include anche la formazione in materia di etica e responsabilità per i dipendenti.

    Per capire quali tipi di dati utilizzati da un'applicazione di intelligenza artificiale potrebbero rappresentare un bias, lo strumento utilizza metodi statistici progettati per confrontare variabili predefinite come giuste o ingiuste. Esaminerà anche altre variabili che potrebbero contenere pregiudizi nascosti. Dati che includono reddito, Per esempio, potrebbe rappresentare un pregiudizio nascosto contro le donne o le minoranze, anche se non ci sono dati che specifichino sesso o razza. Lo strumento può essere utilizzato anche per implementare modifiche all'algoritmo di un cliente, speriamo di renderlo meno di parte. Ma i rappresentanti di Accenture notano che è stato scoperto che così facendo alcuni algoritmi sono complessivamente meno accurati.

    © 2018 Tech Xplore




    © Scienza https://it.scienceaq.com