En lugar de ser programado, Darwin emplea algoritmos inspirados en el cerebro para "imaginarse" realizando tareas antes de intentarlo
Foto: Darwin intenta mover su torso bajo el control de varias redes neuronales.
Como otros muchos niños pequeños, Darwin a veces se tambalea un poco. Pero con cada movimiento torpe, el robot humanoide está demostrando un nuevo método para conseguir que los androides lidien con entornos complejos o desconocidos. El robot aprende a realizar una nueva tarea al emplear un proceso parecido a los procesos neurológicos que apuntalan el aprendizaje infantil.
Darwin vive en el laboratorio de Pieter Abbeel, un profesor adjunto de la Universidad de California en Berkeley (EEUU). Cuando vi el robot hace un par de semanas, estaba colgado de un trípode con un trozo de cuerda, con un aspecto un poco trágico. Poco antes, Darwin había estado retorciéndose al final de la cuerda, intentando averiguar la mejor forma de mover las extremidades para ponerse en pie sin volcarse.
Los movimientos de Darwin están controlados por varias redes de neuronas artificiales, algoritmos que imitan la forma de aprender de un cerebro biológico mientras las conexiones entre neuronas se fortalecen y se debilitan con el paso del tiempo en respuesta a los estímulos. El enfoque hace uso de unas redes neuronales muy complejas, que se conocen como redes de aprendizaje profundo, que disponen de muchas capas de neuronas artificiales.
Para que el robot aprenda a ponerse en pie y a recolocar su cuerpo, por ejemplo, primero ejecuta una serie de simulaciones para entrenar una red de aprendizaje profundo de alto nivel para que realice la tarea, algo que los investigadores comparan con un "proceso imaginario". Esto proporciona una guía general para el robot, mientras una segunda red de aprendizaje profundo es entrenada para ejecutar la tarea mientras responda a la dinámica de las articulaciones del robot y a la complejidad del entorno real. Se requiere esta segunda red porque cuando la primera red intenta mover una pierna, por ejemplo, la fricción que experimenta en el punto de contacto con el suelo puede despistarlo completamente, provocando la caída del robot.
Los investigadores lograron que el robot aprendiera a ponerse en pie, a mover su mano para realizar movimientos de agarre, y a mantenerse equilibrado cuando la superficie sobre la que se encuentra se incline.
"Practica con simulaciones durante aproximadamente una hora", explica Igor Mordatch, un investigador de postgrado de la Universidad de California que realizó el estudio. "Entonces en modo operativo aprende sobre la marcha cómo no perder el equilibrio".
El grupo de Abbeel ha demostrado con anterioridad cómo el aprendizaje profundo puede habilitar a un robot para la ejecución de una tarea, como hacer que un bloque de juguete pase por un agujero, mediante un proceso de ensayo y error. El nuevo enfoque es importante porque puede que no siempre sea posible que un robot goce de un amplio período de pruebas. Y las simulaciones carecen de las complejidades del mundo real, condiciones que con los robots pueden desencadenar en un fracaso catastrófico.
"Intentamos ser capaces de lidiar con una variabilidad mayor", dice Abbeel. "Incluso un pequeño cambio respecto a cómo fue diseñado dificulta muchísimo que funcione".
La nueva técnica podría resultar útil para cualquier robot que trabaje en todo tipo de entornos reales, pero podría mostrarse especialmente útil para una locomoción más elegante . El enfoque actual es diseñar un algoritmo que tenga en cuenta la dinámica de un proceso como andar o correr (ver De qué hablo cuando hablo de robots que corren). Pero puede resultarles difícil lidiar con las variaciones en el mundo real, como demostraron muchos de los robots humanoides que participaron en el reto DARPA al volcarse mientras andaban sobre arena, o perdiendo el equilibrio al alargar la mano para agarrar algún objeto (ver Los robots demuestran que aún son "estúpidos" en el reto DARPA). "De alguna manera, nos sirvió de recordatorio", dice Abbeel. "Eso es lo que pasa en el mundo real".
Dieter Fox, un profesor del departamento de Ciencias Informáticas e Ingeniería de la Universidad de Washington (EEUU) especializado en la percepción y el control de los robots, dice que el aprendizaje por redes neuronales tiene un potencial enorme dentro de la robótica. "Estoy muy emocionado con este enfoque de investigación", dice Fox. "El problema siempre surge cuando se quiere operar dentro del mundo real. Los modelos son imperfectos. Donde entra en acción el aprendizaje de máquinas, y especialmente el aprendizaje profundo, es al aprender de las interacciones del mundo real del sistema".