• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Il nuovo algoritmo limita la distorsione nell'apprendimento automatico

    Credito:CC0 Dominio Pubblico

    L'apprendimento automatico, una forma di intelligenza artificiale basata sull'idea che i computer possono imparare dai dati e prendere decisioni con poco aiuto da parte degli esseri umani, ha il potenziale per migliorare le nostre vite in innumerevoli modi. Dalle auto a guida autonoma alle scansioni mammografiche in grado di leggere se stesse, l'apprendimento automatico sta trasformando la vita moderna.

    È facile presumere che l'utilizzo di algoritmi per il processo decisionale rimuova i pregiudizi umani dall'equazione. Ma i ricercatori hanno scoperto che l'apprendimento automatico può produrre determinazioni ingiuste in determinati contesti, come assumere qualcuno per un lavoro. Per esempio, se i dati inseriti nell'algoritmo suggeriscono che gli uomini sono più produttivi delle donne, è probabile che la macchina "impara" questa differenza e favorisca i candidati maschi rispetto a quelli femminili, manca il bias dell'input. E i manager potrebbero non riuscire a rilevare la discriminazione della macchina, pensando che una decisione automatizzata sia intrinsecamente neutrale, conseguente a pratiche di assunzione scorrette.

    In un nuovo articolo pubblicato negli Atti della 35a Conferenza sul Machine Learning, Hajime Shimao e Junpei Komiyama, borsista post-dottorato SFI, un ricercatore associato presso l'Università di Tokyo, offrono un modo per garantire l'equità nell'apprendimento automatico. Hanno ideato un algoritmo che impone un vincolo di equità che previene i pregiudizi.

    "Quindi diciamo che il tasso di approvazione della carta di credito dei clienti in bianco e nero non può differire di più del 20%. Con questo tipo di vincolo, il nostro algoritmo può prenderlo e fornire la migliore previsione di soddisfare il vincolo, " dice Shimao. "Se vuoi la differenza del 20 percento, dillo alla nostra macchina, e la nostra macchina può soddisfare tale vincolo."

    Tale capacità di calibrare con precisione il vincolo consente alle aziende di garantire il rispetto delle leggi federali sulla non discriminazione, aggiunge Komiyama. L'algoritmo del team "ci consente di controllare rigorosamente il livello di equità richiesto in questi contesti legali, " dice Komiyama.

    La correzione per i pregiudizi implica un compromesso, anche se, Shimao e Komiyama annotano nello studio. Poiché il vincolo può influenzare il modo in cui la macchina legge altri aspetti dei dati, può sacrificare parte del potere predittivo della macchina.

    Shimao afferma che vorrebbe vedere le aziende utilizzare l'algoritmo per aiutare a sradicare la discriminazione nascosta che potrebbe essere in agguato nei loro programmi di apprendimento automatico. "La nostra speranza è che sia qualcosa che possa essere utilizzato in modo che le macchine possano essere prevenute dalla discriminazione ogni volta che è necessario".


    © Scienza https://it.scienceaq.com