Credito:Paul Brennan/dominio pubblico
Il riconoscimento automatico delle lingue dei segni è sulle carte grazie al lavoro di un team in India che utilizza un controller di identificazione del movimento Microsoft Kinect. Scrivendo sull'International Journal of Computational Vision and Robotics, il team spiega come il loro sistema utilizza solo 11 dei 20 giunti tracciati da un Kinect e può estrarre nuove caratteristiche per fotogramma, in base alle distanze, angoli, e velocità che coinvolgono le articolazioni della parte superiore del corpo. Il team riporta come l'algoritmo riconosce 35 gesti dal segno indiano in tempo reale con quasi il 90% di precisione.
Jayesh Ganggrade e Jyoti Bharti del Maunala Azad National Institute of Technology, a Bhopal, India, spiegare quante persone con un deficit uditivo significativo utilizzano la comunicazione basata sui gesti, movimenti delle mani, e l'orientamento insieme all'espressione facciale sono usati dinamicamente per trasmettere il significato in un modo sfumato ed espressivo come qualsiasi altro dialetto linguistico. Lo sviluppo di una tecnologia che potrebbe essere competente anche nelle lingue dei segni darebbe a chi si affida a questa forma di comunicazione un nuovo approccio all'interazione con macchine e computer. Telecamera, guanti digitali, e altri gadget sono stati esaminati in precedenza in questo contesto. Però, il potenziale di un controller per videogiochi economico, come il Kinect, che può monitorare i movimenti del corpo potrebbe facilitare questo rapidamente.
Il team sottolinea che il loro approccio non richiede marcatori o indumenti speciali con oggetti di tracciamento come era necessario con alcuni dei primi sforzi in quest'area. "Abbiamo sperimentato un insieme minimo di caratteristiche per distinguere tra i segni dati con accuratezza pratica, " scrive il team. Ora stanno sperimentando il sensore Kinect v2 che è più preciso e potrebbe spingere la ricerca più vicino al suo obiettivo finale.