HOW-TO

Lenguaje corporal para robots: cómo aprende una máquina a leer tus gestos

A veces, nuestro cuerpo nos delata. Decimos que estamos tranquilos y un tic traicionero revela que somos un manojo de nervios. Para otra persona, este simple gesto involuntario tiene connotaciones claras: ansiedad, agitación… Pero para un robot, nuestro lenguaje corporal pasaría totalmente desapercibido.

A pesar de los últimos avances en tecnologías de reconocimiento facial y visión artificial, a las máquinas todavía no se les da nada bien leer las expresiones humanas. La forma en que mostramos nuestras emociones externamente implica cantidad de sutiles movimientos difíciles de detectar y aún más de entender. Sobre todo, para aquellos que, de momento, ni sienten ni padecen.

lenguaje-corporal-robots-mediatrends (2)

‘Nos comunicamos casi tanto con el movimiento de nuestro cuerpo como con nuestra voz’, asegura el investigador en robótica Yaser Sheikh. Y añade: ‘Pero los ordenadores son más o menos ciegos ante esto’.

Sheikh es miembro del grupo de científicos del Instituto de Robótica de la Universidad Carnegie Mellon, en Estados Unidos, que ha desarrollado un sistema que podría poner fin a esa ceguera. También forma parte del equipo el experto español en visión robótica y machine learning Ginés Hidalgo.

Un observador inteligente

La herramienta, bautizada como OpenPose, puede seguir en tiempo real el movimiento del cuerpo de las personas, incluidas la cara y las manos. Y hasta de los dedos: es la primera vez que un software detecta el movimiento de las falanges. Detectar estos detalles permitiría a los robots entender mejor el mundo que les rodea e interaccionar de forma natural con los seres humanos.

Los investigadores han entrenado al sistema para procesar individualmente cada fotograma de un vídeo. Así, gracias a la tecnología de visión artificial y al machine learning o aprendizaje de máquina, consigue monitorizar tanto la actividad de una sola persona como de un grupo simultáneamente.

lenguaje corporal 3

La increíble capacidad de OpenPose tiene aplicaciones en distintas áreas tecnológicas. Como mencionábamos, podrían utilizarse para mejorar las interacciones entre los robots y los humanos. Los robots domésticos responderían a las emociones y señas de sus dueños, ya fueran niños o ancianos.

Por otro lado, su capacidad para leer el lenguaje corporal podría allanar el camino para crear entornos de realidad virtual y aumentada más interactivos, e interfaces de usuario más intuitivas. Imagina que tu ordenador o tu nuevo móvil supiera que no le entiendes por la expresión de desconcierto de tu cara. Quizá así te pondría las cosas más fáciles a la hora de aprender cómo funciona.

Cientos de cámaras de vídeo

Para que el sistema detecte incluso el desplazamiento de los dedos, los investigadores han utilizado una técnica desarrollada en el Estudio Panóptico de la universidad estadounidense. Se trata de un laboratorio equipado con un sofisticado sistema de cámaras que permite capturar hasta 100.000 puntos diferentes en movimiento en cualquier momento.

Estos expertos emplearon una técnica de captura capaz de descomponer las escenas recogidas por más de 500 cámaras de vídeo instaladas en una cúpula geodésica (una especie de bóveda poligonal) de dos pisos. En este caso, las cámaras capturaron el cuerpo humano en diferentes posturas y desde distintos ángulos. Toda esta información visual sirvió para crear una base de datos con la que trabajar posteriormente.

El siguiente paso consistió en someter las imágenes a una herramienta conocida como detector de puntos clave. Se encargó de identificar y etiquetar ciertas partes de la anatomía humana. Este software puede, además, aprender a asociar las partes del cuerpo con personas concretas. De esta manera, podría saber que la mano de alguien suele estar cerca de su codo, permitiéndole rastrear a varias personas a la vez.

Lenguaje corporal en 3D

Las cámaras de la cúpula habían capturado las imágenes en dos dimensiones, pero los investigadores las procesaron informáticamente para obtenerlas en 3D. El objetivo era ayudar a los algoritmos a entender el aspecto que tenía cada postura corporal desde diferentes perspectivas.

Una vez alimentado con todos estos datos, el sistema es capaz de determinar cómo es una mano, un brazo o una pierna cuando están en una determinada posición, incluso si algunas partes están oscuras o no aparecen en una imagen. Las combina con otras obtenidas desde una perspectiva diferente para encontrar las zonas que faltan.

lenguaje corporal 2

Después de este entrenamiento, ya no hacen falta cientos de cámaras ni ningún procesamiento demasiado complejo para que el sistema interprete el lenguaje corporal: la información que guarda en su base de datos permite al software funcionar con una sola cámara y un ordenador portátil.

Tampoco es necesaria la cúpula poligonal, por lo que su tecnología es móvil y accesible para que pueda utilizarse bajo cualquier condición. Su código está disponible para que otras puedan experimentar con él.

Ventajas para la realidad virtual

lenguaje-corporal-robots-mediatrends (3)

Actualmente, los videojuegos en VR (realidad virtual) que detectan el movimiento de los usuarios necesitan que estos lleven puesto algún tipo de dispositivo con sensores, bien sean guantes o pegatinas. Sin embargo, con el nuevo sistema creado por estos científicos, los jugadores no tendrían que llevar ningún accesorio. El programa podría reconocer sus pasos sin ayudas externas.

El software también tiene aplicaciones en el terreno de la robótica. Particularmente, podría mejorar la comunicación entre máquinas y humanos. Un robot doméstico, por ejemplo, sabría a dónde dirigirse si le señalas una dirección con el dedo y podría aprender a interpretar el lenguaje corporal para saber si estás contento o enfadado.

Asimismo, las máquinas podrían desarrollar mejores habilidades sociales: reconocer de qué humor están las personas que las rodean y si pueden interrumpirlas en sus conversaciones o quehaceres. Coches autónomos que detectan las intenciones de los peatones y sistemas que analizan los movimientos de los deportistas son otras de sus posibilidades futuras.

Aunque aún está lejos el día en que los robots sean verdaderamente empáticos, la investigación en inteligencia artificial consigue que, al menos, aprendan a reconocer mejor las emociones. Los humanos no somos precisamente fáciles de entender: podemos decir una cosa y transmitir la contraria con nuestro lenguaje corporal.

HACE 1 MES

 

¿Tienes algo que añadir a esta historia? Compártelo en los comentarios.

Deja un comentario

1 comentario

    Podrian añadir que estos programas de reconocimiento facial,gestos,emociones,etc.podrian ò incluso quizà estèn usandose en seguridad,en rastreo de personas dentro de las calles de una ciudad.Delincuentes que una vez hayan sido grabados en determinada situacion,luego reconocidos en cualquier otra circunstancia y lugar,aun modificando su forma de caminar ò gesticular.