En los últimos años, la inteligencia artificial ha avanzado a un a velocidad de vértigo mientras que la robótica permanecía estancada. Pero ahora, los algoritmos que hacen de cerebro están empezando a lograr que los cuerpos de las máquinas hagan cosas realmente útiles, y viceversa
El brazo robótico de la imagen superior está llevando a cabo una tarea sisifesca. Primero sobrevuela una enorme montaña de piezas de pollo cocinadas y luego se inclina hacia abajo para agarrar una de ellas. Cuando la tiene sujeta, se gira y, con mucha suavidad, la coloca en un envase en movimiento que avanza por una cinta transportadora.
El robot, que funciona gracias al software de Osaro, una empresa de EE. UU., es más inteligente que cualquiera que haya visto antes (ver Así es el creador de uno de los robots más inteligentes del mundo). El software le enseñó a recoger y colocar pollo en unos cinco segundos. Dentro del año, Osaro espera que sus robots encuentren trabajo en alguna fábrica de alimentos japonesa.
Cualquiera que esté preocupado por la posibilidad de que los robots destruyan el empleo, solo debe visitar cualquier fábrica moderna para ver que este escenario está muy lejos de hacerse realidad. La mayoría de los robots son potentes y precisos, pero no pueden hacer nada a menos que hayan sido programados meticulosamente. Un brazo robótico ordinario carece del juicio necesario para agarrar un objeto si este está fuera de su posición, aunque sea por un solo centímetro. Y no hablemos de su incapacidad para hacerse con un elemento desconocido. Una máquina no entiende la diferencia entre un malvavisco y un bloque de plomo. Así que el hecho de que el robot de Osara pueda agarrar trozos de pollo al azar es un acto de pura genialidad.
Los últimos avances en inteligencia artificial (IA) no han ayudado a mejorar mucho las capacidades de los robots industriales. En los últimos cinco años más o menos, el software de inteligencia artificial se ha vuelto experto en identificar imágenes, ganar juegos de mesa y responder a la voz de una persona, prácticamente sin intervención humana. Incluso se puede autoenseñar nuevas habilidades, si se le da el tiempo suficiente para practicar. Mientras tanto, sus primos de hardware, los robots, luchan por abrir una puerta o levantar una manzana.
Pero esto parece estar a punto de cambiar. El software de IA que controla el robot de Osaro le permite identificar los objetos que tiene delante y estudiar cómo se comportan cuando se les mueve, se les empuja y agarra, para decidir cómo manejarlos. Al igual que otros algoritmos de IA, este programa también aprende de la experiencia. Gracias a una cámara de consumo y un software de aprendizaje automático ejecutado en un ordenador, el robot descubre cómo agarrar cada objeto que ve de la forma más eficaz. Después de muchas pruebas y errores, la máquina es capaz de entender casi cualquier elemento que se le ponga por delante.
Foto: Un robot agarra productos de un contenedor en la sede de Osaro. Crédito: Winni Wintermeyer.
Los robots equipados con inteligencia artificial permitirán que la automatización penetre en cada vez más profesiones. Podrían reemplazar a las personas en cualquier tarea que requiera clasificar, empaquetar y desempaquetar productos. Y ahora que son capaces de navegar por una fábrica caótica, es posible que se les encarguen más trabajos de fabricación. Puede que no lleguen a dominar toda la industria, pero desde luego están empezando una revolución. "Cada vez hay más pruebas, la gente está intentando muchas cosas diferentes. Hay una gran cantidad de opciones para [automatizar] tareas repetitivas", señala el investigador de la Escuela de Negocios de Harvard (EE. UU.) Willy Shih, que estudia las tendencias en la fabricación.
Es una revolución la robótica y también de la inteligencia artificial. Al colocar un software de IA en un cuerpo físico, la máquina se vuelve capaz de identificar objetos, comunicarse y navegar por el mundo real. Y la inteligencia artificial se vuelve más potente cuantos más datos consume. Así que cada vez que el robot lleva a cabo una tarea, el software que actúa como cerebro va adquiriendo más conocimientos sobre el mundo y cómo funciona.
"Esto podría dar lugar a avances que sin todos esos datos serían imposibles", afirma el profesor de la Universidad de California en Berkeley (UCB, EE. UU.) Pieter Abbeel, fundador de covariant.ai (hasta hace llamada Embodied Intelligence), una start-up que integra aprendizaje automático y la realidad virtual en los robots de fábrica.
Dos tecnologías separadas al nacer
La era de los robots estaba tardando en llegar. En 1954, el inventor George C. Devol patentó un diseño para un brazo mecánico programable. En 1961, el empresario de fabricación Joseph Engelberger convirtió ese diseño en Unimate, una máquina pesada e incómoda que se utilizó por primera vez en una línea de montaje de General Motors, y que se convertiría en el primer robot de la historia (ver INFOGRAFÍA: La robótica pasa del 'hierro' a la inteligencia artificial).
Desde el principio, se tendía a idealizar la inteligencia detrás de estas simples máquinas. Engelberger eligió el nombre "robot" para el Unimate en honor a los androides ideados por el autor de ciencia ficción Isaac Asimov. Pero sus máquinas eran dispositivos mecánicos muy toscos dirigidos a realizar una tarea muy específica mediante un software relativamente simple. De hecho, hasta los robots actuales, mucho más avanzados, no son mucho más que máquinas torpes que necesitan ser programadas para cada cosa que hacen.
La inteligencia artificial siguió un camino diferente. En la década de 1950, se propuso la idea utilizar la informática para imitar la lógica y la razón humana. Algunos investigadores también querían dar a estos sistemas una presencia física. En 1948 y 1949, el neurocientífico en Bristol (Reino Unido) William Gray Walter, desarrolló dos pequeñas máquinas autónomas a las que denominó Elsie y Elmer. Estos dispositivos, con un diseño parecido a una tortuga, estaban equipados con circuitos simples inspirados en la neurología que les permitían seguir una fuente de luz por sí mismos. Walter los construyó para demostrar que un pequeño número de conexiones neuronales da lugar a un comportamiento relativamente complejo.
Foto: Un empleado de Embodied Intelligence usa una plataforma de realidad virtual para entrenar a un robot. Crédito: Cortesía de Embodied Intelligence.
Pero entender y recrear la inteligencia resultó ser un desafío enorme, por lo que la IA pasó varias décadas estancada. Y la programación de máquinas físicas para hacer cosas útiles en el caótico mundo real también resultó compleja. La IA y los robots han sido fieles compañeros en los laboratorios de investigación durante décadas. Y de momento, nadie ha conseguido que los robots con IA penetren en la industria de forma masiva.
Pero hace unos seis años, se descubrió una forma de hacer que una vieja y conocida técnica de inteligencia artificial se volviera increíblemente poderosa (ver El hallazgo de hace 30 años en el que se basa toda la inteligencia artificial actual). Los investigadores trabajaban con redes neuronales, unos algoritmos que imitan la estructura del cerebro. Gracias a este truco, las redes neuronales más grandes o "profundas" empezaron a ser capaces de hacer cosas asombrosas cuando se les suministraba grandes cantidades de datos etiquetados. Así fue como la IA empezó a ser capaz de reconocer el objeto que aparece en una imagen con una precisión casi humana.
El sector de la IA se puso patas arriba. Ahora, el aprendizaje profundo (ver TR10: aprendizaje profundo), como comúnmente se conoce a la técnica, se usa en muchísimas tareas relacionadas con la percepción: reconocimiento facial, transcripción del habla y entrenamiento de vehículos autónomos para identificar peatones y señales. Gracias a ella, el sueño de un robot capaz de reconocerle, comunicarse con usted e ir a la cocina a traerle un refresco, empieza a parecer posible.
La IA está logrando que las máquinas físicas sean cada vez más hábiles y diestras. Amazon lleva unos años organizando su ya famoso Desafío Robótico, en el que reta a las máquinas concursantes a recoger distintos objetos lo más rápido posible. Todos los equipos que concursan aplican aprendizaje automático, y cada año, sus robots son más competentes. Está claro que Amazon tiene un ojo puesto en la automatización de la selección y empaque de los miles de millones de artículos que hay dentro de sus almacenes (ver La simbiosis entre robots y humanos en Amazon es cada vez más estrecha y precisa).
El investigador de la UC en Berkeley Ken Goldberg, compañero de Abbeel, cuenta: "En los 35 años que llevo trabajando en agarre robótico, el campo ha avanzado muy poco. Pero ahora estamos preparados para dar un gran salto hacia adelante".
La IA consigue un cuerpo
En el barrio NoHo de Nueva York (EE. UU.), uno de los expertos más importantes del mundo en inteligencia artificial busca el próximo gran avance del sector. Y cree que los robots pueden ser claves para lograrlo.
Yann LeCun (ver El hombre que enseña a las máquinas a entender el lenguaje) jugó un papel crucial en la revolución del aprendizaje profundo. Durante la década de 1980, cuando otros investigadores dejaron las redes neuronales de lado, LeCun siguió intentándolo. Hasta enero, era director de la investigación de Inteligencia artificial de Facebook, y ahora es su principal científico de inteligencia artificial. En estos años, ha dirigido el desarrollo de algoritmos de aprendizaje profundo capaces de identificar a los usuarios en casi cualquier fotografía que publique una persona.
Pero LeCun quiere que la IA haga más que solo ver y escuchar; quiere que razone y haga algo útil (ver "Nos interesa mucho que las máquinas aprendan a predecir el futuro"). Y cree que para lograrlo la inteligencia artificial necesita un cuerpo físico. La inteligencia humana está asociada a la interacción física con el mundo real; los bebés humanos aprenden jugando con cosas. Una IA incrustada en una grúa puede hacer lo mismo. "Muchas de las investigaciones más interesantes de la IA ahora involucran robots", afirma LeCun.
El resultado podría dar lugar a un avance importante en las máquinas, lo que emularía el proceso que dio lugar a la inteligencia biológica. La visión, la destreza y la inteligencia comenzaron a evolucionar juntas a un ritmo acelerado cuando los homínidos comenzaron a caminar erguidos, lo que les permitía tener las manos libres para examinar y manipular objetos. Sus cerebros crecieron, permitiendo la fabricación de herramientas más avanzadas, el lenguaje y la organización social.
¿Podría la IA evolucionar de forma parecida? De momento, su existencia se ha limitado al terreno virtual y a la interacción con burdas simulaciones del mundo real, como los videojuegos y las imágenes fijas. Los programas de inteligencia artificial capaces de percibir el mundo real, interactuar con él y aprender sobre él podrían llegar a ser mucho mejores para el razonamiento e incluso para la comunicación. Abbeel concluye: "Si resuelve el problema de la manipulación en toda su plenitud, probablemente habrá construido algo que esté muy cerca de la inteligencia completa a nivel humano".