• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • L'intelligenza artificiale può impedire la prossima sparatoria a Parkland?

    Credito:CC0 Dominio pubblico

    Le scuole si rivolgono sempre più a soluzioni supportate dall'intelligenza artificiale per fermare tragici atti di violenza studentesca come la sparatoria alla Marjory Stoneman Douglas High School di Parkland, Florida, un anno fa.

    Tecnologie della corteccia, Gaggle.Net, e Securly Inc. sono tre società che utilizzano l'intelligenza artificiale e l'apprendimento automatico per scansionare le e-mail degli studenti, testi, documenti, e in alcuni casi, attività sui social. Cercano segnali premonitori di cyber bullismo, sesso, consumo di droghe e alcol, depressione, e per segnalare gli studenti che possono rappresentare un rischio violento non solo per se stessi, ma compagni di classe.

    Quando vengono rilevati potenziali problemi, e a seconda della gravità, dirigenti scolastici, genitori e, nei casi più estremi, funzionari delle forze dell'ordine, sono avvisati.

    Nell'autunno del 2017, Bark ha condotto un test pilota con 25 scuole. "Abbiamo riscontrato alcuni problemi piuttosto allarmanti, compresa una minaccia di bombardamenti e sparatorie a scuola, "dice Bark Chief Parent Officer, Titania Giordano.

    Pochi mesi dopo è successo Parkland e sapevamo cosa avevamo, e come potrebbe aiutare, ma "non volevamo sembrare opportunisti o capitalizzare una tragedia, " ha detto Giordano.

    Il prodotto Bark è gratuito per le scuole negli Stati Uniti per sempre. L'azienda dice che può permettersi di dare il servizio alle scuole, a causa dei soldi che fa da una versione destinata ai genitori.

    Ci sono limitazioni.

    • Nessuna delle aziende con cui USA TODAY ha parlato per questa storia rivendica la capacità di catturare ogni volta comportamenti sospetti. Liberamente definito, l'intelligenza artificiale descrive macchine che possono dimostrare il comportamento umano e imparare dai dati che digeriscono. A volte sorgono falsi positivi.
    • Una scuola non può sorvegliare lo smartphone di uno studente o altri dispositivi al di fuori di quelli che ha rilasciato, a meno che lo studente non abbia effettuato l'accesso a un social media, o altro conto, utilizzando l'e-mail o le credenziali fornite dalla scuola.
    • Inoltre, gli studenti sono spesso più esperti di tecnologia rispetto ai loro genitori e non parleranno loro di tutti gli account che hanno.

    Se viene rilevato un problema, Bark invia un messaggio di testo e/o e-mail a genitori e scuole, con i passaggi consigliati su come affrontare il problema.

    Il prodotto principale di Bark costa $ 9 al mese, per famiglia, o $ 99 all'anno, e include il monitoraggio su più di 25 piattaforme di social media, da Twitter e Instagram a Snapchat e YouTube.

    La corteccia è attualmente utilizzata in più di 1, 100 distretti scolastici, che copre 2,6 milioni di bambini. Se rileva qualcosa che è considerato estremamente grave come un rapimento di minori o una minaccia di sparatoria a scuola, la questione viene inoltrata all'FBI.

    Secondo Giordano, Bark invia tra 35, 000 e 55, 000 avvisi ogni giorno, molti solo casi di volgarità. Ma 16 plausibili sparatorie a scuola sono state segnalate all'FBI da quando Bark ha lanciato il suo prodotto scolastico lo scorso febbraio, lei dice.

    Prevenire le morti per suicidio

    branco, che sono passati circa 20 anni, addebita alle scuole $ 6 per studente, per anno. Dal 1 luglio l'azienda afferma di aver fermato 447 morti per suicidio al 1, 400 distretti scolastici che utilizzano il suo servizio, e che l'anno scorso ha impedito 542 potenziali morti per suicidio.

    Gaggle afferma anche di aver fermato 240 casi l'anno scorso in cui un bambino ha portato un'arma a scuola per danneggiare un altro studente o intendeva farlo. In tali circostanze, Gaggle avviserà immediatamente un contatto di emergenza presso la scuola e, se necessario, forze dell'ordine.

    "Gli studi hanno dimostrato che i bambini comunicano prima che si verifichi un atto violento e comunicheranno elettronicamente. Se non hai i mezzi per ascoltare quelle grida di aiuto, avrai dei bambini in pericolo, "ha detto Bill McCullough, vicepresidente delle vendite di Gaggle.

    McCullough aggiunge che l'azienda non si affida solo all'apprendimento automatico per determinare le minacce. Se una scansione Gaggle di e-mail e documenti forniti dalla scuola scopre un bambino in crisi, il contenuto viene analizzato da esperti di sicurezza umana formati che verificano se la minaccia è legittima e quindi ne determinano la gravità. Se la minaccia è ritenuta minore, forse l'uso di parolacce, uno studente può essere avvertito direttamente. Se la vita di uno studente è considerata in pericolo, viene immediatamente avvisato un contatto di emergenza presso la scuola.

    Per la sua parte, una terza società, sicuro, funziona con circa 2, 000 distretti scolastici. Fa pagare $ 3 per studente all'anno per un prodotto di punta chiamato Filter, con componenti aggiuntivi premium che possono aggiungere circa $ 2,50 per studente al costo.

    Lo scorso ottobre, uno dei servizi premium di Securly noto come 24, che combina l'intelligenza artificiale con analisti umani addestrati, ha segnalato uno studente che aveva cercato su Google sia "come costruire una bomba" che "come uccidersi". L'analista ha contattato la scuola.

    Un altro esempio recente ha coinvolto uno studente che ha cercato "modi indolori per uccidersi" e ha guardato video di YouTube sull'argomento.

    Minaccia reale o linguaggio innocuo?

    Poiché i sistemi di intelligenza artificiale sono diventati più sofisticati, così come la capacità delle macchine di applicare l'analisi contestuale per determinare se c'è un pericolo reale, o se gli amici in età scolare usano in modo innocuo quello che sembra un linguaggio minaccioso per infastidirsi l'un l'altro, magari durante un gioco.

    "Il nostro algoritmo di apprendimento automatico è abbastanza intelligente da conoscere la differenza tra un'interpolazione che invia messaggi a un'altra interpolazione "KMS" che sta per "uccidimi" se sono solo imbarazzati... e usarla come un linguaggio colloquiale. (O) qualcuno con una reale propensione alla depressione, ansia o esprimere il desiderio di togliersi la vita o fare del male, "dice Giordano.

    McCullough a Gaggle, afferma che gli algoritmi dell'azienda vengono costantemente aggiornati per rilevare il tono della disperazione in un messaggio, per raccogliere simboli ed errori di ortografia, e per analizzare meglio il linguaggio.

    "Abbiamo avuto suicidi che abbiamo fermato dove non c'è parola di "uccisione" o "suicidio" lì dentro, dice McCullough.

    Gaggle potrebbe persino avvertire le autorità di minacce provenienti non da un distretto scolastico che controlla ma dall'esterno.

    "Abbiamo avuto un caso in cui una ragazza di terza elementare è stata sollecitata da un indirizzo email esterno che chiedeva foto di nudo o quella persona stava per uccidere i suoi genitori, " dice McCullough. "Ha cercato di inviare quelle foto, ma poiché gestiamo il nostro servizio dal vivo, non è mai uscito dal nostro ambiente." La persona è stata arrestata.

    Bilanciamento della privacy, costo

    C'è un "delicato equilibrio" sulla privacy, dice Rob McCartney, direttore della tecnologia presso il distretto scolastico di Sioux Central in Iowa, che usa Bark. "Anche se il distretto scolastico che gestiamo e manteniamo possiede gli indirizzi e-mail degli studenti, lo (studente) ha diritto a una quantità sufficiente di privacy senza che noi entriamo e guardiamo e diciamo, 'oh questo è il tuo ragazzo, o sei tornato a casa tardi ieri sera?' Non siamo lì per questo".

    Vinay Mahadik, CEO di Securly, naviga anche sulla linea sottile tra privacy e sicurezza:"Ci impegniamo molto per cercare di essere un'azienda responsabile. Non una sola volta un genitore che abbiamo servito o un distretto scolastico che abbiamo aiutato a tornare e ci ha detto che questa è una cosa orribile che stai facendo."

    McCartney apprezza che Bark sia libero, dati i ristretti vincoli di bilancio che molti distretti scolastici devono affrontare.

    Ma Rich O'Malley, sovrintendente delle scuole Florence 1 in South Carolina, un distretto che paga per Gaggle, dice che "solo salvare una vita o essere in grado di toccare uno studente che ha un problema lo rende inestimabile. Come sovrintendente, probabilmente il problema numero uno che sento dai genitori è la sicurezza della scuola".


    © Scienza https://it.scienceaq.com