• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Una lezione in tutte le lingue

    I progressi nella tecnologia della comunicazione hanno avuto un impatto importante in tutti i tipi di industrie, ma forse nessuno più grande che nell'istruzione. Ora, chiunque da tutto il mondo può ascoltare dal vivo una conferenza di un premio Nobel o guadagnare crediti dalle università più rinomate tramite l'accesso a Internet. Però, le possibili informazioni che si possono ricavare guardando e ascoltando online si perdono se il pubblico non riesce a capire la lingua del docente. Risolvere questo problema, scienziati del Nara Institute of Science and Technology (NAIST), Giappone, ha presentato una soluzione con il nuovo machine learning al 240esimo meeting dello Special Interest Group of Natural Language Processing, Società di elaborazione delle informazioni del Giappone (IPSJ SIG-NL).

    I sistemi di traduzione automatica hanno reso straordinariamente semplice chiedere indicazioni in un paese straniero. Qualche volta, i sistemi possono commettere errori divertenti e innocenti, ma nel complesso, raggiungono una comunicazione coerente, almeno per gli scambi brevi solo una o due frasi. Nel caso di una presentazione che può durare oltre un'ora, come una lezione accademica, sono molto meno robusti.

    "NAIST ha il 20% di studenti stranieri e, mentre il numero di lezioni di inglese è in espansione, le opzioni che questi studenti hanno sono limitate dalla loro abilità giapponese, " spiega il professor NAIST Satoshi Nakamura, che ha condotto lo studio.

    Il gruppo di ricerca di Nakamura ha acquisito 46,5 ore di video di conferenze archiviati da NAIST con le loro trascrizioni e traduzioni in inglese, e ha sviluppato un sistema basato sull'apprendimento profondo per trascrivere il discorso di una lezione giapponese e successivamente tradurlo in inglese. Durante la visione dei video, gli utenti vedono i sottotitoli in giapponese e inglese che corrispondono al discorso del docente.

    Ci si potrebbe aspettare che l'output ideale siano le traduzioni simultanee che potrebbero essere eseguite con presentazioni dal vivo. Però, le traduzioni in tempo reale limitano il tempo di elaborazione e quindi l'accuratezza. "Perché stiamo mettendo i video con i sottotitoli negli archivi, abbiamo trovato traduzioni migliori creando sottotitoli con un tempo di elaborazione più lungo, " lui dice.

    Il materiale archiviato utilizzato per la valutazione consisteva in lezioni di robotica, elaborazione vocale e ingegneria del software. interessante, il tasso di errore di parola nel riconoscimento vocale era correlato alla disfluenza nel discorso dei docenti. Un altro fattore dei diversi tassi di errore è stato il periodo di tempo in cui si parla senza pause. Il corpus utilizzato per la formazione era ancora insufficiente e dovrebbe essere sviluppato maggiormente per ulteriori miglioramenti.

    "Il Giappone vuole aumentare i suoi studenti internazionali e NAIST ha una grande opportunità di essere un leader in questa impresa. Il nostro progetto non solo migliorerà la traduzione automatica, porterà anche menti brillanti nel paese, " Lui continuò.


    © Scienza https://it.scienceaq.com