• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  science >> Scienza >  >> Altro
    La ricerca esplora la promozione della fiducia del pubblico nell'AI

    Credito:Pixabay/CC0 Dominio pubblico

    Il pubblico non ha bisogno di sapere come funziona l'intelligenza artificiale per fidarsi di essa. Devono solo sapere che qualcuno con le competenze necessarie sta esaminando l'intelligenza artificiale e ha l'autorità di applicare sanzioni se causa o è probabile che causi danni.

    Dottor Bran Knowles, un docente senior di scienza dei dati presso la Lancaster University, afferma:"Sono certo che il pubblico non sia in grado di determinare l'affidabilità delle singole IA... ma non abbiamo bisogno che lo facciano. Non è loro responsabilità mantenere l'IA onesta".

    Oggi (8 marzo) il Dr. Knowles presenta un documento di ricerca "The Sanction of Authority:Promoting Public Trust in AI" alla Conferenza ACM sull'equità, Responsabilità e trasparenza (ACM FAccT).

    Il documento è co-autore di John T. Richards, di IBM T.J. Centro di ricerca Watson, Alture di Yorktown, New York.

    Il grande pubblico è, le note di carta, spesso diffidente nei confronti dell'IA, che deriva sia dal modo in cui l'IA è stata ritratta nel corso degli anni, sia dalla crescente consapevolezza che su di essa vi sia poca supervisione significativa.

    Gli autori sostengono che una maggiore trasparenza e spiegazioni più accessibili su come funzionano i sistemi di intelligenza artificiale, percepito come un mezzo per aumentare la fiducia, non affrontare le preoccupazioni del pubblico.

    Un 'ecosistema normativo, " dicono, è l'unico modo in cui l'IA sarà significativamente responsabile nei confronti del pubblico, guadagnare la loro fiducia.

    "Il pubblico non si preoccupa abitualmente dell'affidabilità del cibo, aviazione, e farmaceutici perché confidano che ci sia un sistema che regoli queste cose e punisca ogni violazione dei protocolli di sicurezza, "dice il dottor Richards.

    E, aggiunge il Dr. Knowles:"Piuttosto che chiedere al pubblico di acquisire competenze per prendere decisioni informate su quali IA sono degne della loro fiducia, il pubblico ha bisogno delle stesse garanzie che qualsiasi IA che potrebbe incontrare non causerà loro danni".

    Sottolinea il ruolo fondamentale della documentazione dell'IA nel consentire questo ecosistema normativo affidabile. Come esempio, il documento discute il lavoro di IBM sulle schede informative sull'intelligenza artificiale, documentazione progettata per acquisire i fatti chiave relativi allo sviluppo e al test di un'IA.

    Ma, mentre tale documentazione può fornire le informazioni necessarie ai revisori interni e alle autorità di regolamentazione esterne per valutare la conformità con i quadri emergenti per un'IA affidabile, Il Dr. Knowles mette in guardia dal fare affidamento su di esso per promuovere direttamente la fiducia del pubblico.

    "Se non riconosciamo che l'onere di controllare l'affidabilità dell'IA deve spettare a regolatori altamente qualificati, quindi ci sono buone probabilità che il futuro della documentazione dell'IA sia un altro meccanismo di consenso in stile termini e condizioni, qualcosa che nessuno legge o capisce davvero, " lei dice.

    Il documento richiede che la documentazione dell'IA sia adeguatamente intesa come mezzo per consentire agli specialisti di valutare l'affidabilità.

    "L'intelligenza artificiale ha conseguenze materiali nel nostro mondo che colpiscono le persone reali; e abbiamo bisogno di una vera responsabilità per garantire che l'intelligenza artificiale che pervade il nostro mondo aiuti a renderlo migliore, "dice il dottor Knowles.


    © Scienza https://it.scienceaq.com