• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Pregiudizio dell'intelligenza artificiale:come la tecnologia determina se ottieni un lavoro, ottenere un prestito o finire in galera

    Credito:CC0 Dominio Pubblico

    Le aziende di quasi tutti i settori implementano l'intelligenza artificiale per semplificare i lavori per il personale e le attività più facili per i consumatori.

    Il software per computer insegna agli agenti del servizio clienti come essere più compassionevoli, le scuole usano l'apprendimento automatico per cercare armi e tiratori di massa nel campus, e i medici usano l'intelligenza artificiale per mappare la causa principale delle malattie.

    Settori come la sicurezza informatica, l'intrattenimento online e la vendita al dettaglio utilizzano la tecnologia in combinazione con un'ampia gamma di dati dei clienti in modi rivoluzionari per ottimizzare i servizi.

    Sebbene queste applicazioni possano sembrare innocue, forse anche utile, l'intelligenza artificiale è valida solo quanto le informazioni fornite in essa, che può avere gravi implicazioni.

    Potresti non rendertene conto, ma l'intelligenza artificiale aiuta a determinare se in alcuni casi hai diritto a un prestito. Ci sono prodotti in cantiere che potrebbero farti fermare dagli agenti di polizia perché il software ti ha identificato come qualcun altro.

    Immagina se la gente per strada potesse farti una foto, poi un computer ha scansionato un database per dirgli tutto su di te, o se la telecamera di sicurezza di un aeroporto ha segnalato la tua faccia mentre un cattivo camminava pulito attraverso la TSA.

    Queste sono possibilità del mondo reale quando la tecnologia che dovrebbe rafforzare la convenienza ha il pregiudizio umano integrato nel framework.

    "L'intelligenza artificiale è uno strumento super potente, e come ogni strumento davvero potente, può essere usato per fare molte cose, alcune delle quali sono buone e altre possono essere problematiche, "ha detto Eric Sydell, vicepresidente esecutivo dell'innovazione presso Shaker International, che sviluppa software abilitato per l'intelligenza artificiale.

    "Nelle prime fasi di qualsiasi nuova tecnologia come questa, vedi molte aziende che cercano di capire come inserirlo nella loro attività, "Sidell ha detto, "e alcuni lo stanno facendo meglio di altri."

    L'intelligenza artificiale tende ad essere un termine generico per descrivere le attività eseguite da un computer che di solito richiedono un essere umano, come il riconoscimento vocale e il processo decisionale.

    Che sia intenzionale o meno, gli esseri umani esprimono giudizi che possono riversarsi nel codice creato per l'IA da seguire. Ciò significa che l'intelligenza artificiale può contenere elementi razziali impliciti, pregiudizi di genere e ideologici, che ha indotto una serie di sforzi normativi federali e statali.

    Giustizia criminale

    Nel mese di giugno, Il rappresentante Don Beyer, D-Va., ha offerto due emendamenti a un disegno di legge sugli stanziamenti della Camera che impedirebbe ai fondi federali di coprire la tecnologia di riconoscimento facciale da parte delle forze dell'ordine e richiederebbe alla National Science Foundation di riferire al Congresso sugli impatti sociali dell'IA.

    "Non penso che dovremmo vietare a tutti i dollari federali di fare tutta l'intelligenza artificiale. Dobbiamo solo farlo con attenzione, " Beyer ha detto a U.S. TODAY. Ha detto che l'apprendimento del computer e il software di riconoscimento facciale potrebbero consentire alla polizia di identificare falsamente qualcuno, spingendo un poliziotto a prendere una pistola in casi estremi.

    "Penso che molto presto chiederemo di vietare l'uso della tecnologia di riconoscimento facciale sulle body cam a causa delle preoccupazioni in tempo reale, " Beyer ha detto. "Quando i dati sono imprecisi, potrebbe far perdere il controllo a una situazione".

    L'intelligenza artificiale viene utilizzata nell'analisi predittiva, in cui un computer rivela la probabilità che una persona commetta un crimine. Anche se non è proprio nella misura delle unità di polizia "precrimine" del film di fantascienza di Tom Cruise "Minority Report, " la tecnica è stata oggetto di esame per verificare se migliora la sicurezza o semplicemente perpetua le iniquità.

    Gli americani hanno espresso un supporto misto per le applicazioni di intelligenza artificiale, e la maggioranza (82%) concorda sul fatto che dovrebbe essere regolamentato, secondo uno studio di quest'anno del Center for the Governance of AI e del Future of Humanity Institute dell'Università di Oxford.

    Quando si tratta di riconoscimento facciale in particolare, Gli americani affermano che le forze dell'ordine faranno buon uso della tecnologia.

    Lavori

    Numerosi studi suggeriscono che l'automazione distruggerà i posti di lavoro per gli esseri umani. Per esempio, Gli accademici di Oxford Carl Benedikt Frey e Michael Osborne hanno stimato che il 47% dei posti di lavoro americani è ad alto rischio di automazione entro la metà degli anni '30.

    Poiché i lavoratori si preoccupano di essere sfollati dai computer, altri vengono assunti grazie al software abilitato per l'intelligenza artificiale.

    La tecnologia può abbinare i dipendenti che hanno le competenze ideali per un ambiente di lavoro specifico con i datori di lavoro che potrebbero essere troppo occupati per far vagliare i candidati da umani.

    Shaker International utilizza i dati raccolti dai test, interviste audio e curriculum per prevedere come una persona potrebbe comportarsi sul posto di lavoro.

    I "pezzi significativi" di informazioni includono "come lavorerà una persona, quanto rimarranno, saranno i migliori venditori o un lavoratore di alta qualità, " ha detto Sydell.

    Usando l'intelligenza artificiale, "possiamo sbarazzarci dei processi che non funzionano bene o sono ridondanti. E possiamo offrire ai candidati un'esperienza migliore fornendo loro feedback in tempo reale durante tutto il processo, " ha detto Sydell.

    Ha detto che se l'intelligenza artificiale è distribuita male, può peggiorare l'ambiente di lavoro, ma se è fatto con attenzione, può portare a luoghi di lavoro più equi.

    Finanza

    Per il meglio o il peggio, l'intelligenza artificiale influenza le decisioni finanziarie che le persone prendono, e lo è da anni. Svolge un ruolo sempre più significativo nel modo in cui i trader investono, ed è particolarmente efficace nel prevenire le frodi con carte di credito, hanno detto gli esperti.

    Dove le cose si fanno discutibili è quando la tecnologia viene utilizzata per decidere se sei degno di prendere in prestito denaro da una banca.

    "Ogni volta che chiedi un prestito, potrebbe esserci l'intelligenza artificiale per capire se quel prestito dovrebbe essere dato o meno, " disse Kunal Verma, cofondatore di AppZen, una piattaforma di intelligenza artificiale per i team finanziari con clienti tra cui WeWork e Amazon.

    La tecnologia è spesso pubblicizzata come una valutazione più rapida e accurata di un potenziale mutuatario in quanto può setacciare tonnellate di dati in pochi secondi. Però, c'è spazio per l'errore.

    Se le informazioni inserite in un algoritmo mostrano che vivi in ​​un'area in cui molte persone sono insolventi sui loro prestiti, il sistema potrebbe determinare che non sei affidabile, ha detto Verma.

    "Può anche accadere che l'area possa avere molte persone di determinate minoranze o altre caratteristiche che potrebbero portare a un bias nell'algoritmo, " ha detto Verma.

    Soluzioni ai pregiudizi

    Il pregiudizio può insinuarsi in quasi ogni fase del processo di apprendimento profondo; però, gli algoritmi possono anche aiutare a ridurre le disparità causate da uno scarso giudizio umano.

    Un tipo di soluzione prevede l'alterazione degli attributi sensibili in un set di dati per compensare il risultato. Un altro è il prescreening dei dati per mantenere la precisione. In entrambi i casi, più dati ha un'azienda, più equa può essere l'IA, ha detto Sydell.

    "C'è un motivo per cui Google, Facebook e Amazon sono leader nell'intelligenza artificiale, Sydell ha detto. "È perché hanno tonnellate di dati da sgranocchiare. Altre aziende hanno accesso allo stesso tipo di tecnologia AI, ma potrebbero non avere enormi quantità di dati da utilizzare e a cui applicarli. Questo è lo scoglio".

    Beyer, il politico che vuole regolamentare l'IA, è favorevole al fatto che gli esseri umani controllino due volte le decisioni prese dai computer "finché la tecnologia non sarà perfetta, se mai lo è".

    Ha detto che potrebbe valere la pena chiedersi se l'IA dovrebbe essere la soluzione ideale per ogni problema, compreso se qualcuno va in prigione.

    "E quando è perfetto, dobbiamo iniziare a pensare alla privacy. Piace, è ragionevole scattare una foto di qualcuno e farla scorrere in un database?" ha detto Beyer. "Se l'intelligenza artificiale può leggere una radiografia molto più rapidamente, molto più accuratamente e con meno pregiudizi di un essere umano, è terrificante. Se diamo all'IA la possibilità di dichiarare guerra, siamo in grossi guai".

    (c)2019 Stati Uniti oggi
    Distribuito da Tribune Content Agency, LLC.




    © Scienza https://it.scienceaq.com