Credito:CC0 Dominio Pubblico
OK abbiamo capito. La sensazione geniale dell'intelligenza artificiale come mostrata nella sua gloria evolutiva è con noi e cavalchiamo l'onda volentieri.
Una fase che fa riflettere è sicuramente dietro le quinte. Ora che abbiamo l'intelligenza artificiale, cosa ci facciamo, e stiamo gestendo, anche valutando, bene?
"Come i videogiocatori che cercano il prossimo hack, i dipendenti dovranno monitorare, comprendere, mettere in discussione e sfruttare le vulnerabilità dei loro strumenti e renderne conto, " ha detto John Sumser, analista principale presso Esaminatore Risorse Umane .
"I dipendenti digitali sono al centro del nostro futuro, ma gestirli è molto diverso dal gestire le persone o il software precedente." Citato in Dirigente delle risorse umane :"...capire che siamo all'inizio della costruzione e dell'utilizzo di strumenti intelligenti, c'è molto lavoro da fare e d'ora in poi dovremo pensare alle nostre macchine in modo diverso".
I sostenitori dell'intelligenza artificiale per le decisioni utilizzate dai governi e dalle grandi organizzazioni, Dopotutto, impattano le nostre vite.
La grande domanda è, chi e cosa sta addestrando l'IA a prendere decisioni? C'è un pregiudizio nella fase di allenamento? Se è così, come si può essere sicuri che il risultato sia la decisione più giusta?
Lungo e corto, I ricercatori IBM sono stati impegnati a escogitare modi per ridurre i bias nei set di dati utilizzati per addestrare l'IA. Cosa stanno facendo? Dobbiamo solo guardare l'ennesimo white paper? Stanno facendo di più.
Stanno fornendo un sistema di valutazione in grado di classificare l'equità relativa di un sistema di intelligenza artificiale.
L'equità non è solo qualcosa che ha attirato l'attenzione di IBM. Zoe Kleinman, giornalista tecnologico, Notizie della BBC, ha scritto, "C'è una crescente preoccupazione che gli algoritmi utilizzati sia dai giganti della tecnologia che da altre aziende non siano sempre equi nel loro processo decisionale".
L'arsenale di strumenti tecnologici di intelligenza artificiale di IBM ora include un modo per scovare i pregiudizi inconsci nel prendere decisioni. Il pregiudizio non viene sempre vestito con luci al neon ed etichette con pennarelli magici. La metà delle volte facciamo anche un controinterrogatorio sulla nostra capacità di giudicare, sentirsi a disagio per l'altra metà di noi che sospetta che la decisione sia stata truccata con pregiudizi. Non fare errori, anche se, i nostri sniffer sono spesso corretti.
"Un numero qualsiasi di predisposizioni può essere inserito in un algoritmo, nascosto in un set di dati o in qualche modo concepito durante l'esecuzione di un progetto, " ha detto Jack Murtha mercoledì in Notizie sull'analisi sanitaria .
IBM sta facendo le notizie relative all'AI di questa settimana.
IBM ha annunciato un servizio software in esecuzione su IBM Cloud in grado di rilevare i bias e spiega come l'AI prende le decisioni, mentre le decisioni vengono prese, disse Murta.
"Stiamo dando nuova trasparenza e controllo alle aziende che utilizzano l'intelligenza artificiale e affrontano il rischio più potenziale derivante da qualsiasi processo decisionale errato, " il direttore generale di Watson AI presso IBM, Beth Smith, ha dichiarato.
"I clienti potranno vedere, tramite una dashboard visiva, come i loro algoritmi prendono decisioni e quali fattori vengono utilizzati per formulare le raccomandazioni finali, " ha detto Kleinman.
Il software IBM basato su cloud sarà open-source, e funzionerà con alcuni framework comunemente usati per la creazione di algoritmi. Quindi cosa farà effettivamente?
Murtha lo ha approfondito. (1) Esegue il ping in tempo reale di "risultati sleali" e (2) raccomanda dati che potrebbero mitigare i pregiudizi; (3) IBM offre anche servizi di consulenza per pulire il processo decisionale tramite processi aziendali più solidi e interfacce uomo-IA.
Il nuovo contributo di IBM potrebbe aggiungere un altro livello alla comprensione e alla risoluzione dei pregiudizi.
L'ingiustizia può riflettersi nella mancanza di diversità nelle quantità di dati su cui vengono addestrati gli algoritmi.
Un rapporto della CNBC ha osservato che "La composizione dell'industria tecnologica che sta creando quegli algoritmi non era perfetta. "La Silicon Valley ha una lunga storia di critiche per la sua mancanza di diversità".
Kay Firth-Butterfield, capo dell'intelligenza artificiale e dell'apprendimento automatico al World Economic Forum, è stato citato dalla CNBC.
"Quando si parla di pregiudizio, ci preoccupiamo prima di tutto del focus delle persone che stanno creando gli algoritmi, " Firth-Butterfield ha detto. "Dobbiamo rendere l'industria molto più diversificata in Occidente".
Uno studente post-laurea al Massachusetts Institute of Technology nel 2016 aveva scoperto che "il riconoscimento facciale individuava il suo viso solo se indossava una maschera bianca, " ha detto Kleinman.
Qual è il prossimo? "IBM Services lavorerà con le aziende per aiutarle a utilizzare il nuovo servizio. IBM Research rilascerà un toolkit nella comunità open source, " disse Cerco Alfa . ZDNet aveva più dettagli da condividere su questo toolkit. IBM renderà open source gli "strumenti di rilevamento dei pregiudizi" di IBM Research tramite un "toolkit AI Fairness 360". Aspettati di vedere una libreria di algoritmi, codice e tutorial.
ZDNet 's Larry Dignan:"La speranza è che gli accademici, ricercatori e data scientist integreranno il rilevamento dei bias nei loro modelli".
Coloro che desiderano approfondire un tale toolkit possono controllare gli strumenti di IBM su Github.
© 2018 Tech Xplore