Comparte en tus redes
Share on Facebook24Tweet about this on TwitterShare on Google+7Share on LinkedIn0Email this to someone

Traducir el lenguaje de signos al lenguaje textual. Esto es lo que hace el brazalete Myo, un dispositivo capaz de captar todos los movimientos de una persona sordomuda y traducirlos. Se trata de una investigación llevada a cabo por científicos bajo un proyecto que puede resultar interesante.

El proyecto Sceptre de la Universidad de Arizona consiste en usar unos Brazaletes Myo para detectar el movimiento de brazos, manos y dedos, enviarlos mediante Bluetooth a una base de datos y ofrecer su traducción digital en la pantalla del ordenador e incluso móvil en tiempo real. Un avance alucinante que facilitaría la comunicación de muchos miles de personas.

Unos brazaletes para entenderlos a todos

Una auténtica eliminación de barreras a la altura de lo que supondrían las rampas para las sillas de ruedas. A este nivel se sitúa el innovador proyecto que constituirá un paso adelante sin precedentes para todas aquellas personas que usan el lenguaje de signos como medio principal para comunicarse.

La base son los brazaletes Myo, capaces de reconocer e interpretar los movimientos musculares del antebrazo a través de sus sensores de inercia y electromiografía. Comenzaron siendo diseñados ya hace algunos años para el control de la navegación digital (pasar páginas, detener la imagen…) o de los videojuegos, pero su potencial no tardó en ampliarse a campos como el de la medicina y, más concretamente, el control de prótesis implantadas.

brazaletes

Un software exclusivo es capaz de contrastar los movimientos con su base de datos y ofrecer la solución en pantalla. Todavía está en fase de desarrollo, por lo que el proceso no es instantáneo, aún no aguanta una conversación fluida y debe calibrarse cada vez que es usado (una mínima variación en su colocación podría distorsionar los resultados), además tiene que resolver las distintas interpretaciones gestuales que realice cada persona en particular.

 

brazalete4

Las posibilidades futuras

El software que se está desarrollando lograría en un futuro interpretar el lenguaje de signos solamente con un registro visual, es decir, de tal manera que por ejemplo una simple cámara podría conseguirlo por ella misma.

De momento, los resultados obtenidos se muestran en la pantalla de un ordenador, pero ya están trabajando para obtener los mismos parámetros en un smartphone. Poder enseñar tu móvil con la palabra exacta y que sólo podías expresar mediante signos ya supone un gran adelanto.

Pero no acaba aquí la evolución, sino que una aplicación específica podría llegar incluso a transmitir mediante voz la traducción de los signos registrados. Imagina llevar el móvil en el bolsillo y que vaya hablando según tus movimientos. Según Prajwal Paudyal, uno de sus creadores:

En una situación ideal, el usuario lo podría utilizar allá donde vaya.”

Sobre El Autor

Álvaro Pedraz Cuesta
Redactor (Colaborador)

Sociólogo en la Complutense; crítico de cine en Dolcecity; amago de escritor de novela negra y dibujante; freak del cine clásico que lleva casi ocho años luchando por tener en la tienda de Media Markt León la mejor sección de cine, música y literatura que se pueda encontrar. Y entre todas mis vidas no sé si escojo la del pirata cojo...

Hacer Comentario

Su dirección de correo electrónico no será publicada.