• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Dopo Uber, incidenti Tesla, ci si può fidare dell'intelligenza artificiale?

    Credito:Missouri University of Science and Technology

    Data la scelta di guidare in un Uber guidato da un essere umano o una versione a guida autonoma, quale sceglieresti?

    Considerando l'incidente mortale del mese scorso di un Uber a guida autonoma che ha tolto la vita a una donna a Tempe, Arizona, e la recente morte di un collaudatore di un veicolo semi-autonomo sviluppato da Tesla, anche la fiducia delle persone nella tecnologia alla base dei veicoli autonomi potrebbe aver subito un duro colpo. L'affidabilità delle auto a guida autonoma e di altre forme di intelligenza artificiale è uno dei numerosi fattori che influenzano la fiducia degli esseri umani nell'IA, apprendimento automatico e altri progressi tecnologici, scrivono due ricercatori della Missouri University of Science and Technology in un recente articolo di giornale.

    "La fiducia è la pietra angolare del rapporto dell'umanità con l'intelligenza artificiale, "scrivi il dottor Keng Siau, professore e presidente di economia e tecnologia dell'informazione presso Missouri S&T, e Weiyu Wang, uno studente laureato in scienze e tecnologie dell'informazione del Missouri. "Come ogni tipo di fiducia, la fiducia nell'IA richiede tempo per essere costruita, secondi per rompersi e per sempre da riparare una volta che si è rotto."

    Gli incidenti di Uber e Tesla indicano la necessità di ripensare il modo in cui vengono sviluppate le applicazioni di intelligenza artificiale come i sistemi di guida autonoma, e che i progettisti e i produttori di questi sistemi adottino determinate misure per costruire una maggiore fiducia nei loro prodotti, Siau dice.

    Nonostante questi recenti incidenti, Siau vede un forte futuro per l'IA, ma pieno di problemi di fiducia che devono essere risolti.

    "Un processo dinamico"

    "La costruzione della fiducia è un processo dinamico, coinvolgendo il passaggio dalla fiducia iniziale allo sviluppo continuo della fiducia, " Siau e Wang scrivono in "Building Trust in Artificial Intelligence, Apprendimento automatico, e Robotica, " pubblicato nel numero di febbraio 2018 di Cutter Business Technology Journal.

    Nel loro articolo, Siau e Wang esaminano i concetti prevalenti di fiducia in generale e nel contesto delle applicazioni di intelligenza artificiale e dell'interazione uomo-computer. Discutono i tre tipi di caratteristiche che determinano la fiducia in quest'area:umana, ambiente e tecnologia e delineare modi per generare fiducia nelle applicazioni di intelligenza artificiale.

    Siau e Wang indicano cinque aree che possono aiutare a costruire la fiducia iniziale nei sistemi di intelligenza artificiale:

    • Rappresentazione. Più una tecnologia è "umana", più è probabile che gli umani si fidino di esso. "Ecco perché i robot umanoidi sono così popolari, "Sia dice, aggiungendo che è più facile "stabilire una connessione emotiva" con un robot che sembra e si comporta più come un umano o un cane robotico che si comporta più come un cane. Forse i veicoli autonomi di prima generazione dovrebbero avere un "autista" umanoide al volante per alleviare le preoccupazioni.
    • Immagine o percezione. I libri e i film di fantascienza hanno dato all'IA una brutta immagine, Siau dice. Le persone tendono a pensare all'IA in termini distopici, come colorato dai film Terminator o Bladerunner o dai romanzi di Isaac Asimov e Philip K. Dick. "Questa immagine e questa percezione influenzeranno la fiducia iniziale delle persone nell'IA, " Scrivono Siau e Wang.
    • Recensioni di altri utenti. Le persone tendono a fare affidamento sulle recensioni dei prodotti online, e "una recensione positiva porta a una maggiore fiducia iniziale".
    • Trasparenza e "spiegabilità". Quando il funzionamento interno di una tecnologia è nascosto in una "scatola nera, " quell'opacità può ostacolare la fiducia. "Per fidarsi delle applicazioni AI, bisogna capire come sono programmati e quale funzione verrà svolta in determinate condizioni, " dice Siau.
    • Provabilità. La possibilità di testare una nuova applicazione AI prima che gli venga chiesto di adattarla porta a una maggiore accettazione, Siau dice.

    Come mantenere la fiducia nell'AI

    Oltre a sviluppare la fiducia iniziale, però, anche i creatori di AI devono lavorare per mantenere tale fiducia. Siau e Wang suggeriscono sette modi per "sviluppare una fiducia continua" oltre le fasi iniziali dello sviluppo del prodotto:

    • Usabilità e affidabilità. L'intelligenza artificiale "dovrebbe essere progettata per funzionare in modo semplice e intuitivo, " Scrivono Siau e Wang. "Non dovrebbero esserci tempi di inattività imprevisti o arresti anomali".
    • Collaborazione e comunicazione. Gli sviluppatori di intelligenza artificiale vogliono creare sistemi che funzionino in modo autonomo, senza coinvolgimento umano. Gli sviluppatori devono concentrarsi sulla creazione di applicazioni di intelligenza artificiale che collaborino e comunichino facilmente e senza intoppi con gli esseri umani.
    • Socievolezza e legame. Costruire attività sociali nelle applicazioni di intelligenza artificiale è un modo per rafforzare la fiducia. Un cane robotico in grado di riconoscere il suo proprietario e mostrare affetto ne è un esempio, Siau e Wang scrivono.
    • Sicurezza e tutela della privacy. Le applicazioni di intelligenza artificiale si basano su grandi set di dati, quindi garantire la privacy e la sicurezza sarà fondamentale per stabilire la fiducia nelle applicazioni.
    • Interpretabilità. Così come la trasparenza è fondamentale per costruire la fiducia iniziale, l'interpretabilità – o la capacità di una macchina di spiegare le sue conclusioni o azioni – contribuirà a sostenere la fiducia.
    • Posizione lavorativa. Poiché le preoccupazioni per l'intelligenza artificiale che sostituisce gli esseri umani sul posto di lavoro continuano a crescere, devono essere messe in atto politiche per fornire riqualificazione e istruzione a coloro che sono colpiti da questa tendenza.
    • Congruenza degli obiettivi. "Dal momento che l'intelligenza artificiale ha il potenziale per dimostrare e persino superare l'intelligenza umana, è comprensibile che la gente lo tratti come una minaccia, Scrivono Siau e Wang. "Assicurarsi che gli obiettivi dell'IA siano congruenti con gli obiettivi umani è un precursore nel mantenere una fiducia continua". Le politiche per governare come dovrebbe essere utilizzata l'IA saranno importanti man mano che la tecnologia avanza, aggiungono gli autori.

    "L'era dell'IA sarà inquietante, trasformativo e rivoluzionario, Siau scrive in un altro recente articolo ("How Will Technology Shape Learning?" pubblicato nel numero di marzo 2018 del Analista globale ). Ma in questo ambiente inquietante, l'istruzione superiore può svolgere un ruolo significativo.

    "L'istruzione superiore deve raccogliere la sfida di preparare gli studenti alla rivoluzione dell'IA e consentire agli studenti di navigare con successo nell'era dell'IA, "Sia scrive.


    © Scienza https://it.scienceaq.com