• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • L'intelligenza artificiale deve sapere quando chiedere aiuto umano

    A volte le domande diventano troppe per i sistemi di intelligenza artificiale. Credito:sdecoret/Shutterstock.com

    I sistemi di intelligenza artificiale sono strumenti potenti per le aziende e i governi per elaborare i dati e rispondere a situazioni mutevoli, sia in borsa che sul campo di battaglia. Ma ci sono ancora alcune cose per cui l'IA non è pronta.

    Siamo studiosi di informatica che lavorano per comprendere e migliorare i modi in cui gli algoritmi interagiscono con la società. I sistemi di intelligenza artificiale danno il meglio quando l'obiettivo è chiaro e ci sono dati di alta qualità, come quando viene chiesto loro di distinguere tra volti diversi dopo aver appreso da molte immagini di persone correttamente identificate.

    A volte i sistemi di intelligenza artificiale funzionano così bene che utenti e osservatori sono sorpresi di quanto sia percettiva la tecnologia. Però, a volte il successo è difficile da misurare o definito in modo errato, oppure i dati di allenamento non corrispondono all'attività in corso. In questi casi, Gli algoritmi di intelligenza artificiale tendono a fallire in modi imprevedibili e spettacolari, anche se non è sempre immediatamente evidente che qualcosa è andato storto. Di conseguenza, è importante diffidare del clamore e dell'eccitazione su ciò che l'intelligenza artificiale può fare, e non presumere che la soluzione che trova sia sempre corretta.

    Quando gli algoritmi sono al lavoro, ci dovrebbe essere una rete di sicurezza umana per prevenire danni alle persone. La nostra ricerca ha dimostrato che in alcune situazioni gli algoritmi possono riconoscere problemi nel modo in cui operano, e chiedere aiuto umano. Nello specifico, noi mostriamo, chiedere aiuto umano può aiutare ad alleviare i pregiudizi algoritmici in alcune impostazioni.

    Quanto è sicuro l'algoritmo?

    I sistemi di intelligenza artificiale vengono utilizzati nelle condanne penali, profilazione della personalità basata sul viso, riprendere lo screening, l'iscrizione all'assistenza sanitaria e altri compiti difficili in cui sono in gioco la vita e il benessere delle persone. Le agenzie governative degli Stati Uniti stanno iniziando a intensificare l'esplorazione e l'uso dei sistemi di intelligenza artificiale, in risposta a un recente ordine esecutivo del presidente Donald Trump.

    È importante ricordare, anche se, che l'intelligenza artificiale può cementare idee sbagliate su come viene affrontato un compito, o amplificare le disuguaglianze esistenti. Questo può accadere anche quando nessuno ha detto esplicitamente all'algoritmo di trattare qualcuno in modo diverso.

    Ad esempio, molte aziende hanno algoritmi che cercano di determinare le caratteristiche di una persona dal suo volto, ad esempio per indovinare il suo genere. I sistemi sviluppati dalle aziende statunitensi tendono a fare molto meglio nella categorizzazione degli uomini bianchi rispetto alle donne e alle persone dalla pelle più scura; fanno peggio alle donne dalla pelle scura. Sistemi sviluppati in Cina, però, tendono a fare peggio sui volti bianchi.

    La differenza non è perché un gruppo ha volti più facili da classificare rispetto ad altri. Piuttosto, entrambi gli algoritmi sono in genere addestrati su una vasta raccolta di dati che non è così diversificata come la popolazione umana complessiva. Se il set di dati è dominato da un particolare tipo di viso:uomini bianchi negli Stati Uniti, e volti cinesi in Cina, quindi l'algoritmo probabilmente farà meglio ad analizzare quei volti rispetto ad altri.

    I dati di addestramento parziali possono migliorare i sistemi, o peggio, nel riconoscere certi tipi di volti. Credito:Andrey_Popov/Shutterstock.com

    Non importa come sorge la differenza, il risultato è che gli algoritmi possono essere distorti essendo più accurati su un gruppo che su un altro.

    Tenere d'occhio l'IA

    Per le situazioni ad alto rischio, la fiducia dell'algoritmo nel proprio risultato – la sua stima di quanto sia probabile che il sistema abbia fornito la risposta giusta – è importante tanto quanto il risultato stesso. Le persone che ricevono l'output dagli algoritmi devono sapere quanto seriamente prendere i risultati, piuttosto che presumere che sia corretto perché ha coinvolto un computer.

    Solo di recente i ricercatori hanno iniziato a sviluppare modi per identificare, molto meno tentativo di riparare, disuguaglianze negli algoritmi e nei dati. Gli algoritmi possono essere programmati per riconoscere i propri difetti e seguire tale riconoscimento con una richiesta di assistenza a una persona.

    Molti tipi di algoritmi di intelligenza artificiale calcolano già un livello di confidenza interno, una previsione di quanto bene ha analizzato un particolare elemento di input. Nell'analisi facciale, molti algoritmi di intelligenza artificiale hanno una confidenza inferiore sui volti più scuri e sui volti femminili rispetto ai volti maschili bianchi. Non è chiaro quanto questo sia stato preso in considerazione dalle forze dell'ordine per gli usi ad alto rischio di questi algoritmi.

    L'obiettivo è che l'IA stessa individui le aree in cui non raggiunge la stessa precisione per i diversi gruppi. Su questi ingressi, l'IA può rinviare la sua decisione a un moderatore umano. Questa tecnica è particolarmente adatta per attività complesse come la moderazione dei contenuti.

    I moderatori di contenuti umani non possono tenere il passo con il flusso di immagini pubblicate sui siti di social media. Ma la moderazione dei contenuti di intelligenza artificiale è famosa per non tenere conto del contesto alla base di un post, identificando erroneamente le discussioni sull'orientamento sessuale come contenuti espliciti, o identificare la Dichiarazione di Indipendenza come incitamento all'odio. Questo può finire per censurare in modo impreciso un gruppo demografico o politico rispetto a un altro.

    Per ottenere il meglio da entrambi i mondi, la nostra ricerca suggerisce di valutare tutti i contenuti in modo automatizzato, utilizzando gli stessi metodi di intelligenza artificiale già comuni oggi. Quindi il nostro approccio utilizza tecniche di nuova proposta per individuare automaticamente potenziali disuguaglianze nell'accuratezza dell'algoritmo su diversi gruppi protetti di persone, e affidare le decisioni su determinati individui a un essere umano. Di conseguenza, l'algoritmo può essere completamente imparziale su quelle persone su cui decide effettivamente. E gli umani decidono su quegli individui in cui la decisione algoritmica avrebbe inevitabilmente creato pregiudizi.

    Questo approccio non elimina il pregiudizio:si limita a "concentrare" il potenziale di pregiudizio su un insieme più piccolo di decisioni, che vengono poi gestiti da persone, usando il buon senso umano. L'IA può ancora svolgere la maggior parte del lavoro decisionale.

    Questa è una dimostrazione di una situazione in cui un algoritmo di intelligenza artificiale che lavora insieme a un essere umano può raccogliere i benefici e l'efficienza delle buone decisioni dell'intelligenza artificiale, senza essere rinchiuso nei suoi cattivi. Gli umani avranno quindi più tempo per lavorare sullo sfocato, decisioni difficili che sono fondamentali per garantire equità ed equità.

    Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com