REVIEWS

Cómo engañar a un robot: así de fácil es hacer que una máquina confunda un coche con un zapato

Confundir dos caras es algo que a los humanos nos sucede a menudo. Si dos rostros se parecen mucho, puede ocurrir que identifiquemos erróneamente a una persona. El cerebro no es perfecto, pero al parecer las máquinas tampoco: un robot también se equivoca a la hora de identificar objetos. 

En el terreno informático, los sistemas de reconocimiento de imagen serían el equivalente a nuestro imperfecto sentido de la vista. Estas herramientas, como las que usa Facebook para encontrar caras en una foto y saber a quién pertenecen, son cada vez más comunes y precisas.

Sin embargo, un equipo de investigadores de la Escuela Politécnica Federal de Lausana (Suiza) ha demostrado que una ínfima perturbación en una imagen puede hacer que un robot confunda un coche con un zapato. O un joystick con un chihuahua.

Los hallazgos, que ayudarán a los científicos a perfeccionar estos sistemas, serán presentados con detalle en la próxima Conferencia sobre Visión Artificial y Reconocimiento de Imagen. Este importante evento internacional tendrá lugar en julio, pero los responsables de este curioso estudio ya han dado a conocer los resultados de su trabajo.

El sentido de la vista de un robot

Las herramientas de reconocimiento de imagen basan su funcionamiento en el ‘deep learning’, una rama de la inteligencia artificial.

Estos sistemas utilizan redes neuronales artificiales, es decir, un ejército de algoritmos organizados en capas, que se comportan como las células nerviosas del cerebro.

Todas estas unidades componen una especie de máquina virtual capaz de aprender las características de un elemento para luego poder distinguirlo. Se las puede entrenar para identificar objetos, caras, texto o elementos del lenguaje.

vision artificial 1

Gracias a los sistemas de reconocimiento de imagen, un robot podría asimilar, por ejemplo, cómo es un gato. Solo habría que mostrarle las suficientes fotos de mininos e indicarle de qué se trata. Los algoritmos encontrarían los rasgos comunes a todas ellas para luego poder detectar a los felinos de cualquier foto.

Pero no solo se usan con sistemas de visión artificial. Este tipo de algoritmos también pueden encontrarse en el motor de búsquedas de Google o en Siri, la famosa asistente virtual de Apple. Dan tan buen resultado que muchas empresas están desarrollando sistemas de este tipo para detectar tumores o para controlar coches autónomos.

Hasta las máquinas tienen puntos débiles

El mayor (e intrigante) problema del ‘deep learning’ es que ni siquiera los creadores de una red neuronal artificial saben cómo funciona exactamente. Las entrenan para luego mostrarles un conjunto de datos y obtener un resultado, pero no se conoce exactamente lo que ocurre en mitad de ese proceso.

Ante este misterio, los investigadores del Laboratorio de Procesamiento de Señal del centro suizo decidieron desconfiar de los robots y comprobar si son tan eficaces como pueden parecer.

Y, según sus conclusiones, aunque no existen algoritmos miopes, también presentan problemas de visión si se encuentran con cierto tipo de imágenes.

No es la primera vez que los científicos crean pequeñas perturbaciones en las fotos capaces de confundir a las redes neuronales artificiales. La novedad, en este caso, es que a los expertos no les ha hecho falta más que una sola de estas alteraciones para que los algoritmos fallen en casi todos los intentos.

La modificación que han diseñado es tan pequeña que pasa inadvertida al ojo humano. Es, por eso, que resulta alarmante que algo tan ínfimo produzca tal efecto en un sistema de inteligencia artificial y hace pensar que no son tan fiables como se pensaba.

Los algoritmos, a prueba

Pero ¿cómo se burla uno de una herramienta informática? En este caso, los investigadores calcularon la mínima perturbación que pudiera confundir incluso a los más sofisticados algoritmos de reconocimiento de imagen.

La alteración impedía que los sistemas de inteligencia artificial pudieran identificar objetos en las fotografías.

Por si te pica la curiosidad, la modificación consiste en cambiar ligeramente el valor de uno de los píxeles de la foto. Esta ínfima adulteración pasaría desapercibida para nuestros ojos: una persona no hubiera sido capaz de distinguir la imagen alterada de la original.

Volviendo al ejemplo del gato, cualquier ser humano (incluso un niño de dos años) sería capaz de asimilar qué es un felino después de ver cinco fotografías del animal. Y podríamos reconocerlo en otra foto a pesar de que ésta estuviera ligeramente alterada. Esto se debe a que tenemos la capacidad innata de crear una imagen global e ignorar los cambios siempre que no modifiquen todo el concepto.

vision artificial 2

Sin embargo, un robot no puede hacer esta abstracción humana. Los sistemas de inteligencia artificial no asimilan los conceptos, solo siguen una serie de instrucciones lógicas para clasificar la información y extraer ciertos patrones. La perturbación consiguió confundirles en esta organización y dar al traste con el proceso identificativo.

El resultado fue de lo más sorprendente: los algoritmos confundieron un calcetín con un elefante, una planta verde con un ave tropical, un joystick con un chihuahua y una cafetera con una cobra.

Mientras, en el mundo real…

deep-mechine-learning-mediatrends

Como decíamos, el objetivo de los investigadores no es engañar a las máquinas (ni divertirse con los hilarantes resultados), sino entender mejor cómo funcionan los sistemas de ‘deep learning’ para mejorarlos. Se están desarrollando herramientas de este tipo para ser utilizadas en medicina, detectando tumores o proteínas en imágenes.

Aunque el hecho de que los algoritmos confundan un coche con un zapato sea más anecdótico que otra cosa, las consecuencias no serían las mismas si la salud de una persona estuviera en juego. Conocer las limitaciones de la tecnología de reconocimiento de imagen permitirá a investigadores y empresas perfeccionarlos para evitar errores y conseguir resultados más fiables.

Según los expertos, si para ellos ha sido tan fácil encontrar esta ligera alteración, también puede serlo para otros con peores intenciones. Por eso, identificar estos fallos sirve, además, para prevenir posibles amenazas de seguridad en estos sistemas.

¿Y ahora?

reconocimiento-facial-mediatrends

Los investigadores de la institución suiza advierten de la necesidad de realizar más estudios sobre ‘deep learning’. Todavía falta mucho por descubrir sobre el funcionamiento de estos complejos sistemas, sus propiedades, su verdadero potencial y los riesgos que llevan asociados.

Para ayudar a quienes deseen complementar su trabajo, estos expertos han hecho público el código de la perturbación para que cualquiera pueda modificarlo o experimentar con él.

Mientras tanto, ellos seguirán investigando por su cuenta para demostrar que los robots aún no son tan inteligentes como creemos.

HACE 3 AÑOS