• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Ridurre il rischio nell'intelligenza artificiale e nella tecnologia medica basata sull'apprendimento automatico

    Credito:CC0 Dominio Pubblico

    L'intelligenza artificiale e l'apprendimento automatico (AI/ML) stanno trasformando sempre più il settore sanitario. Dall'individuazione di tumori maligni alla lettura di scansioni TC e mammografie, La tecnologia basata su AI/ML è più veloce e più accurata rispetto ai dispositivi tradizionali, o anche ai migliori medici. Ma insieme ai vantaggi arrivano nuovi rischi e sfide normative.

    Nel loro ultimo articolo, "Algoritmi sul lockdown normativo in medicina" recentemente pubblicato su Scienza , Boris Babic, Assistente Professore INSEAD di Scienze delle Decisioni; Teodoro Evgeniou, Professore INSEAD di Scienze delle Decisioni e Management della Tecnologia; Sara Gerke, Ricercatore presso il Petrie-Flom Center for Health Law Policy della Harvard Law School, Biotecnologia, e Bioetica; e I. Glenn Cohen, Professore alla Harvard Law School e Direttore di Facoltà al Petrie-Flom Center, guarda le nuove sfide che devono affrontare i regolatori mentre percorrono i percorsi sconosciuti di AI/ML.

    Considerano le domande:quali nuovi rischi dobbiamo affrontare quando i dispositivi AI/ML vengono sviluppati e implementati? Come dovrebbero essere gestiti? Su quali fattori devono concentrarsi le autorità di regolamentazione per garantire il massimo valore con il minimo rischio?

    Fino ad ora organismi di regolamentazione come la Food and Drug Administration (FDA) statunitense hanno approvato software medico basato su AI/ML con "algoritmi bloccati, " questo è, algoritmi che forniscono ogni volta lo stesso risultato e non cambiano con l'uso. Però, un punto di forza chiave e un potenziale vantaggio della maggior parte della tecnologia AI/ML deriva dalla sua capacità di evolversi man mano che il modello apprende in risposta a nuovi dati. Questi "algoritmi adattativi, " reso possibile grazie all'AI/ML, creare quello che è essenzialmente un sistema sanitario per l'apprendimento, in cui i confini tra ricerca e pratica sono porosi.

    Dato il valore significativo di questo sistema adattativo, una domanda fondamentale per i regolatori oggi è se l'autorizzazione debba essere limitata alla versione della tecnologia che è stata presentata e valutata come sicura ed efficace, o se consentono la commercializzazione di un algoritmo in cui è da ricercare un valore maggiore nella capacità della tecnologia di apprendere e adattarsi alle nuove condizioni.

    Gli autori esaminano in modo approfondito i rischi associati a questo problema di aggiornamento, considerando le aree specifiche che richiedono attenzione e i modi in cui le sfide potrebbero essere affrontate.

    La chiave per una regolamentazione forte, dicono, è dare la priorità al monitoraggio continuo del rischio.

    "Per gestire i rischi, le autorità di regolamentazione dovrebbero concentrarsi in particolare sul monitoraggio continuo e sulla valutazione dei rischi, e meno sulla pianificazione per future modifiche dell'algoritmo, "dicono gli autori.

    Mentre i regolatori avanzano, gli autori raccomandano di sviluppare nuovi processi per monitorare continuamente, identificare, e gestire i rischi associati. Suggeriscono elementi chiave che potrebbero aiutare in questo, e che in futuro potrebbero essere essi stessi automatizzati utilizzando AI/ML, possibilmente con sistemi AI/ML che si monitorano a vicenda.

    Mentre il documento attinge in gran parte dall'esperienza della FDA nella regolamentazione della tecnologia biomedica, le lezioni e gli esempi hanno un'ampia rilevanza poiché altri paesi considerano come modellano la loro architettura normativa associata. Sono anche importanti e rilevanti per qualsiasi azienda che sviluppa prodotti e servizi integrati con AI/ML, dall'automotive, all'assicurazione, finanziari, energia, e sempre più molti altri. I dirigenti di tutte le organizzazioni hanno molto da imparare sulla gestione dei nuovi rischi AI/ML da come li pensano oggi le autorità di regolamentazione.

    "Il nostro obiettivo è enfatizzare i rischi che possono derivare da cambiamenti imprevisti nel modo in cui i sistemi medici di AI/ML reagiscono o si adattano ai loro ambienti, "dicono gli autori, avvertendo che, "Impercettibile, aggiornamenti parametrici spesso non riconosciuti o nuovi tipi di dati possono causare errori grandi e costosi."


    © Scienza https://it.scienceaq.com