• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • In che modo l'intelligenza artificiale aiuta a prevedere e prevenire i suicidi

    Un progetto pilota del 2018 tra la Public Health Agency of Canada e Advanced Symbolics utilizzerà i post sui social media come risorsa per prevedere i tassi di suicidio regionali. Credito:Shutterstock

    Il suicidio è una preoccupazione crescente per la salute pubblica. In Canada, 4, Ogni anno i suicidi mietono migliaia di vite, ovvero 10 vite al giorno.

    Per ognuno di questi suicidi, sono cinque le persone ricoverate per autolesionismo, 25-30 tentativi di suicidio e sette-10 persone colpite da ogni tragedia, secondo l'analisi della Public Health Agency of Canada.

    I tassi di suicidio sono più alti tra alcuni gruppi, come i popoli indigeni, immigrati e rifugiati, prigionieri e la lesbica, gay, bisessuale, transgender, comunità intersex (LGBTI) e sono in aumento.

    Gli effetti del suicidio si fanno sentire ampiamente. La Toronto Transit Commission (TTC) ha recentemente riportato un aumento dei suicidi in transito alla fine del 2017, con otto tentativi nel solo dicembre, e un corrispondente aumento dei tassi di congedo per stress da parte dei dipendenti TTC, a causa del pedaggio che questo ha assunto sul personale.

    Potrebbe l'intelligenza artificiale (AI), o intelligenza dimostrata dalle macchine, forse aiutare a prevenire queste morti?

    Come ricercatori in psichiatria, nel Canadian Biomarker Integration Network for Depression, stiamo raccogliendo dati clinici e biologici durante gli interventi di trattamento per le persone con depressione maggiore. Stiamo esplorando i primi indizi sui cambiamenti nel comportamento e negli stati d'animo utilizzando le tecnologie sanitarie mobili.

    Uno dei nostri obiettivi è identificare i predittori precoci di ricaduta, e aumento del rischio di comportamento suicidario.

    Qui esaminiamo altre promettenti applicazioni dell'IA alla prevenzione del suicidio, e richiamare l'attenzione sulle barriere all'interno di questo campo.

    L'intelligenza artificiale prevede i tassi di suicidio

    All'inizio del 2018, la Public Health Agency of Canada ha annunciato un progetto pilota con Advanced Symbolics, una società di intelligenza artificiale con sede a Ottawa che ha previsto con successo la Brexit, La presidenza di Trump e i risultati delle elezioni canadesi del 2015.

    Il progetto ricercherà e prevederà i tassi di suicidio regionali esaminando i modelli nei post sui social media canadesi, inclusi contenuti relativi al suicidio, anche se l'identità dell'utente non verrà raccolta.

    Il programma non isolerà i casi ad alto rischio né interverrà a livello individuale. Anziché, i risultati saranno utilizzati per informare la pianificazione delle risorse per la salute mentale.

    Facebook avvisa i soccorritori

    Nel 2011, Facebook ha sviluppato un sistema di segnalazione manuale del suicidio in cui gli utenti possono caricare schermate di contenuti suicidi per la revisione.

    Nel 2015, il sistema permetteva agli utenti di "segnalare" i contenuti, il che indurrebbe lo staff di Facebook a rivedere il post e rispondere con risorse di supporto.

    A causa del successo dello strumento, Facebook ha iniziato a espandere le proprie capacità di intelligenza artificiale per rilevare automaticamente i contenuti relativi al suicidio, e allertare i soccorritori locali. Ci sono anche più opzioni di lingua, e un'estensione in Instagram.

    I chatbot danno terapia per la depressione

    L'intelligenza artificiale è stata utilizzata nel settore sanitario dagli anni '90 per migliorare il rilevamento delle malattie e vari indici di benessere.

    All'interno della salute mentale, L'intelligenza artificiale ha migliorato la velocità e l'accuratezza della diagnosi, e applicato "alberi decisionali" per guidare la selezione del trattamento.

    Un nuovo approccio alla "terapia" coinvolge i bot conversazionali (o chatbot) che sono programmi per computer progettati per simulare conversazioni simili a quelle umane utilizzando risposte vocali o di testo.

    I chatbot possono fornire interventi psicologici per la depressione e l'ansia basati sulla terapia cognitivo comportamentale (CBT). Poiché i chatbot rispondono in modo univoco al dialogo presentato, possono adattare gli interventi allo stato emotivo e ai bisogni clinici del paziente. Questi modelli sono considerati abbastanza user-friendly, e le risposte adattate all'utente del chatbot stesso sono state ben riviste.

    Una tecnologia simile viene aggiunta agli smartphone per consentire agli assistenti vocali, come Siri dell'iPhone, riconoscere e rispondere ai problemi di salute mentale degli utenti con informazioni appropriate e risorse di supporto. Però, questa tecnologia non è considerata affidabile ed è ancora nelle sue fasi preliminari. Altre applicazioni per smartphone usano persino i giochi per migliorare l'educazione alla salute mentale.

    La tecnologia AI è stata integrata anche nella gestione del suicidio per migliorare l'assistenza ai pazienti in altre aree. È stato dimostrato che gli strumenti di valutazione dell'IA prevedono il rischio di suicidio a breve termine e forniscono raccomandazioni terapeutiche valide quanto i medici. Gli strumenti sono anche apprezzati dai pazienti.

    I modelli di intelligenza artificiale prevedono il rischio individuale

    L'attuale valutazione e gestione del rischio di suicidio è ancora altamente soggettiva. Per migliorare i risultati, sono necessarie strategie di intelligenza artificiale più obiettive. Le applicazioni promettenti includono la previsione del rischio di suicidio e la gestione clinica.

    Il suicidio è influenzato da una varietà di fattori psicosociali, biologico, ambientale, fattori economici e culturali. L'intelligenza artificiale può essere utilizzata per esplorare l'associazione tra questi fattori e gli esiti del suicidio.

    L'intelligenza artificiale può anche modellare l'effetto combinato di più fattori sul suicidio, e utilizzare questi modelli per prevedere il rischio individuale.

    Come esempio, i ricercatori della Vanderbilt University hanno recentemente progettato un modello di intelligenza artificiale che prevedeva il rischio di suicidio, utilizzando cartelle cliniche elettroniche, con un'accuratezza dall'84 al 92 per cento entro una settimana da un evento suicidario e dall'80 all'86 per cento entro due anni.

    Andare avanti con cautela

    Con l'avanzare del campo della prevenzione del suicidio mediante l'uso dell'intelligenza artificiale, ci sono diversi potenziali ostacoli da affrontare:

    1. Privacy:la legislazione sulla protezione dovrà espandersi per includere i rischi associati all'IA, in particolare la raccolta, Conservazione, trasferimento e utilizzo di informazioni sanitarie riservate.
    2. Precisione:l'accuratezza dell'IA nel determinare correttamente l'intento suicidario dovrà essere confermata, in particolare per quanto riguarda i pregiudizi o gli errori del sistema, prima di etichettare una persona come ad alto (contro basso) rischio.
    3. Sicurezza:è essenziale garantire che i programmi di intelligenza artificiale possano rispondere in modo appropriato agli utenti suicidi, in modo da non peggiorare il loro stato emotivo o facilitare accidentalmente la pianificazione del suicidio.
    4. Responsabilità:sono necessari protocolli di risposta su come gestire correttamente i casi ad alto rischio segnalati dalla tecnologia AI, e cosa fare se le valutazioni del rischio dell'IA differiscono dall'opinione clinica.
    5. Mancanza di comprensione:esiste un divario di conoscenza tra gli utenti chiave su come la tecnologia AI si inserisce nella prevenzione del suicidio. Per affrontare questo problema è necessaria una maggiore educazione sull'argomento.

    Globale, La tecnologia AI è qui per restare in molti aspetti dell'assistenza sanitaria, compreso lo screening suicidario e la consegna dell'intervento.

    Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com