TENDENCIAS

Estos brazaletes traducen el lenguaje de signos a texto digital

rtir en Facebook

Traducir el lenguaje de signos al lenguaje textual. Esto es lo que hace el brazalete Myo, un dispositivo capaz de captar todos los movimientos de una persona sordomuda y traducirlos. Se trata de una investigación llevada a cabo por científicos bajo un proyecto que puede resultar interesante.

El proyecto Sceptre de la Universidad de Arizona consiste en usar unos Brazaletes Myo para detectar el movimiento de brazos, manos y dedos, enviarlos mediante Bluetooth a una base de datos y ofrecer su traducción digital en la pantalla del ordenador e incluso móvil en tiempo real. Un avance alucinante que facilitaría la comunicación de muchos miles de personas.

Unos brazaletes para entenderlos a todos

Una auténtica eliminación de barreras a la altura de lo que supondrían las rampas para las sillas de ruedas. A este nivel se sitúa el innovador proyecto que constituirá un paso adelante sin precedentes para todas aquellas personas que usan el lenguaje de signos como medio principal para comunicarse.

La base son los brazaletes Myo, capaces de reconocer e interpretar los movimientos musculares del antebrazo a través de sus sensores de inercia y electromiografía. Comenzaron siendo diseñados ya hace algunos años para el control de la navegación digital (pasar páginas, detener la imagen…) o de los videojuegos, pero su potencial no tardó en ampliarse a campos como el de la medicina y, más concretamente, el control de prótesis implantadas.

brazaletes

Un software exclusivo es capaz de contrastar los movimientos con su base de datos y ofrecer la solución en pantalla. Todavía está en fase de desarrollo, por lo que el proceso no es instantáneo, aún no aguanta una conversación fluida y debe calibrarse cada vez que es usado (una mínima variación en su colocación podría distorsionar los resultados), además tiene que resolver las distintas interpretaciones gestuales que realice cada persona en particular.

 

brazalete4

Las posibilidades futuras

El software que se está desarrollando lograría en un futuro interpretar el lenguaje de signos solamente con un registro visual, es decir, de tal manera que por ejemplo una simple cámara podría conseguirlo por ella misma.

De momento, los resultados obtenidos se muestran en la pantalla de un ordenador, pero ya están trabajando para obtener los mismos parámetros en un smartphone. Poder enseñar tu móvil con la palabra exacta y que sólo podías expresar mediante signos ya supone un gran adelanto.

Pero no acaba aquí la evolución, sino que una aplicación específica podría llegar incluso a transmitir mediante voz la traducción de los signos registrados. Imagina llevar el móvil en el bolsillo y que vaya hablando según tus movimientos. Según Prajwal Paudyal, uno de sus creadores:

En una situación ideal, el usuario lo podría utilizar allá donde vaya.”

Deja un comentario