REVIEWS

Robots e inteligencia emocional: ¿más listos y, además, comprensivos?

El cine suele reflejar muchos avances tecnológicos antes de que lleguen a asentarse en el mundo real. Así ha ocurrido con la inteligencia emocional de las máquinas. Películas como ‘Yo, Robot’ o ‘Ex Machina’ nos muestran un mundo donde los robots son capaces entender, procesar y responder a los sentimientos humanos.

Aunque todavía no se ha conseguido dotar a los ordenadores de estas capacidades, cada vez estamos más cerca de lograrlo. Hay diversos proyectos en los que investigadores y empresas trabajan para crear sistemas que descifren e interpreten los sentimientos. Ya han demostrado que las máquinas pueden exhibir la misma inteligencia emocional que las personas e, incluso, superarla.

Los robots, ¿mejor preparados para las emociones?

Quizá el hecho de que ellos mismos carezcan de emociones coloque a los robots en una buena posición de partida. Mientras los juicios e interpretaciones subjetivos impiden a los humanos entender a sus semejantes, las máquinas gozan de una visión totalmente objetiva. No van a malinterpretar las señales por sus ideas ni a dejarse engañar por mentiras.

wall e_love2

Como aclara el investigador del University College London Tomás Chamorro-Premuzic, “los robots no necesitan sentir para actuar con inteligencia emocional”.

Al contrario de lo que suele pensarse, esta habilidad se basa en dejar a un lado los impulsos y sentimientos propios para comportarse racionalmente.

Las máquinas ganan terreno también en lo relativo a la percepción. En el campo de la computación afectiva se utilizan diferentes tipos de sensores para captar pistas que revelen el ánimo de una persona. Los gestos faciales, la postura corporal, la variación del tono de la voz y la tensión de los músculos son algunas de las variables en las que se fijan los sistemas artificiales.

Trabajadores felices  

El estado de ánimo de los empleados de una compañía determina su rendimiento laboral. Sin embargo, ¿cómo puede saber su ocupado jefe si están contentos o tristes? La startup Humanyze crea soluciones tecnológicas para facilitarles la tarea. Sus fundadores, científicos salidos del MIT, fabrican dispositivos cargados de sensores que analizan la apariencia de los humanos.

chica

Los aparatos registran en tiempo real datos de voz, actividad y señales de estrés. Integran micrófonos y sensores de aproximación. Analizando todos estos datos, los responsables de los equipos humanos pueden encontrar formas de mejorar la productividad de los trabajadores.

Los datos les permiten ayudar a aquellos empleados agobiados por su carga laboral y tomar decisiones sobre su equipo. También pueden utilizar la información para premiar a los miembros más productivos e identificar los patrones que favorecen su buen rendimiento.

El útil sistema de Humanyze ya ha llamado la atención de algunos bancos estadounidenses que quieren probarlo para gestionar su plantilla.

Coches con inteligencia emocional

Los pasajeros de los autobuses y taxis actuales tienen que resignarse a las maneras del conductor. Necesitan completar su viaje, así que deben aguantarse si éste va demasiado rápido o muy lento. Esto no significa que se relajen en su asiento: es normal ponerse tenso o terminar fuertemente sujeto a cualquier agarradero por miedo a una colisión.

En el sector de los coches inteligentes tienen estas condiciones en cuenta. No quieren que los vehículos autónomos conduzcan a sus anchas, sino que presten atención a los pasajeros. Por eso, los chóferes artificiales necesitan detectar e interpretar las emociones de las personas a las que transportan.

Para conseguirlo, en la empresa BRAIQ enseñan a los coches inteligentes a evaluar si los viajeros están cómodos. Así pueden adaptar su conducción automatizada al gusto de las personas para proporcionarles la mejor experiencia.

coche

Los sensores seleccionados por la startup se instalan dentro del vehículo para registrar distintas variables. Los datos biométricos revelan cómo se sienten los pasajeros con cada acción y decisión del sistema del vehículo. El ordenador que lo controla sabe así cómo reaccionan los viajeros cuando acelera o frena.

Pero los coches también deben saber comunicarse con los peatones y otros conductores. En Drive, otra empresa del sector, les entrenan para que utilicen un código de señales que informe sobre sus próximos movimientos. Usan luces, sonidos y otros signos en sustitución de los gestos o las ráfagas utilizadas por los conductores humanos.

El sistema incorpora, además, herramientas de deep learning para que los vehículos analicen lo que ocurre a su alrededor y reaccionen en consecuencia. Por ejemplo, si detectan un peatón frente a un paso de cebra podrán indicarle que puede cruzar la calle.

Atención adaptada al cliente

Halle Berry, en una escena de la película La última llamada. En ella interpreta a una teleoperadora.

¿Quién no se ha enfadado alguna vez durante una llamada al servicio de atención al cliente de una empresa? Los teleoperadores humanos deben responder de acuerdo a las emociones de su interlocutor: si se exaspera o frustra, tienen que adaptar su lenguaje y tono para tratar de calmarle.

Sin embargo, apreciar estos cambios de humor desde el otro lado del teléfono puede resultar complicado. Por eso, en Cogito han creado un sistema inteligente capaz de analizar los matices que revelan el estado de ánimo del que habla. Su objetivo es ayudar a los trabajadores de carne y hueso a conectar con los clientes y mostrarse más empáticos.

Por otro lado, la herramienta resulta útil también a los supervisores. Al proporcionarles información en tiempo real sobre las llamadas, pueden alertarles de conflictos y anomalías en las conversaciones. Les permiten así intervenir a tiempo, analizar el trabajo de los teleoperadores y evaluar la experiencia de los clientes.

Detectores de mentiras más eficientes

Seguramente has oído hablar de los polígrafos, los también conocidos como detectores de mentiras, como el que usaba Robert de Niro con Ben Stiller en ‘Los padres de ella’.

Pues bien. Estas máquinas suelen utilizarse para resolver casos criminales y en juicios para verificar si el declarante dice o no la verdad. Pero lo cierto es que estos sistemas no siempre aciertan con sus resultados y, además, pueden manipularse.

Desde Nuralogix ofrecen una alternativa: han desarrollado una herramienta que detecta las reacciones emocionales imperceptibles para el ojo humano.

La tecnología combina imágenes ópticas transdérmicas con algoritmos de machine learning para analizar el flujo sanguíneo del rostro.

nuralogix

Las fluctuaciones en la irrigación de las venas y capilares de la cara constituyen una respuesta del organismo a situaciones de estrés. Si policías, jueces o abogados preguntan a un sospechoso, este factor puede revelar si miente. Los humanos no podemos controlar la circulación sanguínea de forma voluntaria.

Tampoco es posible dar órdenes al corazón. Por eso el ritmo cardíaco es una de las variables que registra un dispositivo creado en el MIT y bautizado EQ-Radio. Los sensores de este aparato detectan de forma remota señales provenientes del cuerpo humano. Sus algoritmos analizan después la información para identificar variaciones en los latidos, la respiración o la actividad cerebral.

Aunque esta herramienta también podría sustituir a los polígrafos actuales, de momento sólo se ha utilizado en ensayos. Se ha usado para determinar si los participantes en las pruebas estaban felices, tristes o enfadados.

A pesar de que todas estas tecnologías tienen gran utilidad en diferentes áreas, lo cierto es que su función resulta un poco inquietante. Si las máquinas consiguen entender nuestros sentimientos mejor que otras personas, ¿llegará a comprendernos mejor un amigo artificial que uno de carne y hueso?

HACE 6 MESES

 

¿Tienes algo que añadir a esta historia? Compártelo en los comentarios.

Deja un comentario