• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • I ricercatori suggeriscono che i sistemi di IA medica potrebbero essere vulnerabili agli attacchi avversari

    Credito:CC0 Dominio Pubblico

    Un piccolo team di ricercatori medici dell'Università di Harvard e del MIT ha pubblicato un pezzo del Policy Forum sulla rivista Scienza suggerendo che i futuri sistemi di IA medica potrebbero essere vulnerabili agli attacchi avversari. Sottolineano che la ricerca precedente ha dimostrato che praticamente tutti i sistemi di intelligenza artificiale sono vulnerabili in qualche modo a tali attacchi.

    Un attacco contraddittorio nel campo dell'apprendimento automatico è un tentativo, attraverso input dannosi, di ingannare il modello su cui è costruito un tale sistema. In pratica, questo significa fornire a un sistema di intelligenza artificiale una sorta di informazione che lo costringe a restituire risultati errati. I ricercatori suggeriscono che un tale attacco potrebbe essere mirato a sistemi di rilevamento come quelli programmati per trovare il cancro analizzando le scansioni. Hanno anche mostrato come funzionerebbe un attacco contraddittorio alimentando un sistema con un certo schema di rumore che innescava confusione, con conseguenti risultati errati.

    Ma questo non è il tipo di attacco contraddittorio di cui i ricercatori sono davvero preoccupati. Ciò che li preoccupa di più sono i sistemi di intelligenza artificiale che sono stati sviluppati e sono già in uso e sono coinvolti nell'elaborazione delle richieste di risarcimento e nella fatturazione:la possibilità che gli ospedali o persino i medici possano utilizzare tali sistemi per modificare le informazioni sui moduli per essere pagati di più dalle compagnie assicurative o Medicaid per l'esecuzione di test, Per esempio, modificando un codice per far sembrare una semplice radiografia come un test MRI. Alimentare un sistema di intelligenza artificiale con la giusta informazione al momento giusto potrebbe far sì che faccia proprio questo. Esiste anche la possibilità che un ospedale possa insegnare al suo sistema di intelligenza artificiale a trovare i modi migliori per truffare le compagnie assicurative o il governo, rendendo quasi impossibile il rilevamento.

    I ricercatori suggeriscono che è necessario un nuovo approccio al processo decisionale, in cui persone provenienti da un'ampia varietà di campi, compresa la legge, informatica e medicina, affrontare il problema prima che diventi prevalente. Tali gruppi potrebbero, forse, trovare modi per evitare che accada, o almeno rilevarlo se lo fa.

    © 2019 Scienza X Rete




    © Scienza https://it.scienceaq.com