• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Per le persone che balbettano, la comodità della tecnologia dell'assistente vocale rimane fuori portata

    Credito:CC0 Dominio Pubblico

    Ti senti mai come se i tuoi assistenti vocali, sia Siri, Alexa, o Google:non ti capisco? Potresti ripetere la tua domanda un po' più lentamente, un po' più forte, ma alla fine riceverai le informazioni che stavi chiedendo di rileggerti nei toni piacevoli ma senza vita del tuo assistente ad attivazione vocale.

    E se parlare con il tuo tecnico di casa non fosse un'opzione? Questa è la domanda che devono affrontare molti dei 3 milioni di persone negli Stati Uniti che balbettano, più le migliaia di altri che hanno problemi di linguaggio non limitati alla balbuzie, e molti si sentono esclusi.

    "Quando questa roba ha iniziato a uscire, Ero tutto su di esso, " disse Jacquelyn Joyce Revere, uno sceneggiatore di Los Angeles che balbetta. "A Los Angeles, Ho bisogno del GPS tutto il tempo, quindi questo sembrava un modo più conveniente per vivere la vita che voglio vivere."

    Revere ha detto che dal 2011, ha provato a usare Siri su iPhone e Apple Watch, e Alexa tramite Amazon Fire Stick. Anche se continua a provare a usare questi assistenti vocali, i suoi tentativi spesso la lasciano delusa.

    "Ogni volta che provo a usarlo è un altro chiodo nella bara, un altro promemoria che questa tecnologia non è stata creata per me, "Revere ha detto.

    Ma non sono solo Alexa e i suoi amici

    Le frustrazioni di Revere non si limitano agli assistenti vocali. Anche le interfacce telefoniche automatizzate pongono problemi. Ad esempio, ha detto che non è raro che passi fino a 40 minuti in attesa, solo per essere interrotto da una chiamata da un operatore di macchina quando non riesce a pronunciare alcuna parola.

    Secondo Jane Fraser, presidente della Fondazione Balbuzie, le interfacce telefoniche sono state per anni un problema comune nella comunità dei balbuzienti. Ha detto che The Stuttering Foundation riceve centinaia di email in cerca di aiuto su come affrontarle, considerando che la tecnologia più recente ha aiutato i vecchi problemi a emergere in modi nuovi.

    "Nel complesso la tecnologia ha aiutato le persone che balbettano, ma quando provi a dirgli quello che vuoi, ottieni la stessa esperienza al telefono con una macchina o un'altra persona:entrambi riagganciano, " ha detto Fraser.

    Diversi tipi di balbuzie vengono ascoltati dagli assistenti vocali in modi diversi. Alcune di queste forme di balbuzie includono prolungamenti, dove si distendono i suoni; ripetizioni, quando gli oratori ripetono suoni o parole; e blocchi, quali sono le pause che si verificano quando un parlante non riesce a pronunciare una parola. Fraser ha affermato che le persone che balbettano con i blocchi spesso hanno i maggiori problemi con gli assistenti vocali e le interfacce telefoniche ad attivazione vocale.

    "Se non c'è voce, non c'è niente da sentire dall'assistente vocale, quindi si spegne o interrompe, " ha detto Fraser.

    Revere balbetta spesso con i blocchi, e ha detto che confondono gli assistenti vocali più di qualsiasi altro tipo di balbuzie.

    "Se ho un blocco, si sono completamente spenti, "Revere ha detto, anche se ha anche notato che Alexa è un po' più paziente di Siri.

    Taylor Enyart, un assistente legale di Elk Grove, California, è un altro utente di Alexa e Siri che balbetta a blocchi. Analogamente a Revere, ha problemi a usare questa tecnologia e si sente esclusa a causa di essa.

    "Utilizzare queste tecnologie non è facile per me, " Disse Enyart. "Li ho provati tutti, ma tutti mi hanno tagliato fuori. è davvero frustrante, quindi cerco solo di evitarli. Una parte di me si sente davvero esclusa, ma un'altra parte è come, "Sono abituato a questo.'"

    Come sta rispondendo Big Tech

    Mela, Amazzonia, e Google hanno tutti i loro modi per fornire accessibilità alle persone che balbettano o che hanno altre disabilità del linguaggio. Amazon e Apple hanno rilasciato funzionalità che consentono agli utenti di digitare comandi su Alexa o Siri, come Tap to Alexa con Echo Show, o Digita su Siri con iOS 11 nel 2018.

    Google aggiorna costantemente il suo Assistente Google con nuovi campioni vocali per comprendere meglio le persone con accenti o disfluenze vocali. E nel 2019, la società ha annunciato un progetto di ricerca chiamato Project Euphonia, il cui obiettivo è creare un modello di riconoscimento in grado di comprendere le persone con disabilità del linguaggio su tutte le piattaforme informatiche.

    Il progetto, che è stato ispirato dai pazienti di SLA, mira a raccogliere un numero sufficiente di campioni audio per creare un modello sonoro in grado di prevedere e comprendere schemi vocali alterati.

    "C'è una rivoluzione in corso nel modo in cui le persone usano la voce per interagire con i computer, ma alcune persone vengono lasciate indietro, " ha detto Michael Brenner, un professore di matematica applicata di Harvard e uno dei ricercatori dietro il Progetto Euphonia.

    Secondo Brenner, La più grande sfida del progetto Euphonia è la mancanza di dati. Poiché la tecnologia di riconoscimento vocale è addestrata per ascoltare il parlato standard, Il progetto Euphonia ha bisogno di campioni audio di discorso alterato per addestrare i computer a essere in grado di capirlo. Idealmente, Il progetto Euphonia avrebbe accesso a decine di milioni di campioni audio, creare un modello statistico in grado di prevedere e comprendere i suoni del linguaggio alterato, ma questo è uno standard impossibile.

    "Non vogliamo fare promesse eccessive perché non sappiamo cosa è possibile, ma vogliamo aiutare le persone, " ha detto Brenner. "Sarebbe l'ideale avere abbastanza campioni per avere un modello generale, ma noi no. Vogliamo scoprire come fare cose utili con il discorso che abbiamo".

    Erich Reiter è un ingegnere del riconoscimento vocale e logopedista che ha aiutato a sviluppare Siri quando lavorava per Nuance Communications. È profondamente consapevole dei fallimenti della tecnologia di riconoscimento vocale per le persone con disturbi del linguaggio dal 2012.

    Quell'anno, un incidente subacqueo in acque poco profonde ha lasciato tetraplegico uno degli amici di Reiter, e poteva comunicare solo attraverso un dispositivo di comunicazione aumentativa e alternativa (CAA), simile a quello utilizzato dal fisico teorico inglese Stephen Hawking. Secondo Reiter, it would take his friend three minutes to say something as simple as "I need water."

    This experience inspired Reiter to return to school to become a speech pathologist and eventually create voice recognition technology that helps people who stutter.

    Reiter is now one of the founders of Say-IT Labs, a Brussels-based start-up that is making video games intended to help people who stutter practice effective speech techniques. Their goal, according to Reiter, is to make speech therapy more accessible.

    "If you see a school SLP, chances are they have a caseload of about 60-80 students, " Reiter said. "That doesn't give them enough time to work on real progress."

    Say-IT Labs is currently working on a game called Fluency Friends, where players control colorful cartoon characters through treacherous obstacles. Only instead of a joystick or a keyboard, the game will prompt players with words or sentences they must say to move through the level.

    Similar to Project Euphonia, Say-IT Labs needs data to create an acoustic model for the game that understands stuttered speech. Finora, according to Reiter, his team has collected samples from 50 participants.

    Unlike Project Euphonia, però, Say-IT Labs requires much less data to work with because the sound of stuttered speech is less variable than the impaired speech found in patients with neurological disorders, according to Reiter.

    "I hope that the kind of technology we're creating will allow us to help educate SLPs and people who stutter, instead of just helping 50 people (through conventional therapy), " Reiter said. "For the 1% of the population who stutters, it would be a gift to reach 1, 000."

    Despite efforts to help, voice assistants still remain inaccessible for many people who stutter. Hannah Arnold is a dental receptionist from Kent, Washington, who first tried using Siri and Alexa in 2013. Her first attempts came a little anxiously, as she wasn't sure how the machines would respond to her stutter.

    "I have trouble with Ws. It takes me a while to say them, " Arnold said. "So Siri would always interrupt me when I'd try to say, "Hey, Siri, what is the weather going to be like today?'"

    Oggi, Arnold rarely uses voice assistants, but she sees how they could easily make her life better. Ad esempio, instead of having to type from the screen on her Apple Watch, or ask for directions in her car, she could just ask Siri instead.

    "It's pretty hard because I feel like voice recognition—and talking to other technology—is expanding, " Arnold said. "But with advancements in new technology, I'm hopeful we'll have more accommodations."

    (c)2020 USA oggi
    Distribuito da Tribune Content Agency, LLC.




    © Scienza https://it.scienceaq.com