Inteligencia Artificial
Una ‘spinoff’ de OpenAI crea una IA que permite a robots aprender como los humanos
Pero ¿puede pasar del laboratorio al almacén?
En el verano de 2021, OpenAI cerró discretamente su equipo de robótica, anunciando que los avances se veían frenados por la falta de datos necesarios para entrenar a los robots en cómo moverse y razonar mediante inteligencia artificial.
Ahora, tres de los primeros científicos investigadores de OpenAI afirman que la start-up que crearon en 2017, llamada Covariant, ha resuelto ese problema y ha presentado un sistema que combina las habilidades de razonamiento de modelos lingüísticos de gran tamaño con la destreza física de un robot avanzado.
El nuevo modelo, llamado RFM-1, se entrenó con años de datos recopilados de la pequeña flota de robots recolectores de Covariant que clientes como Crate & Barrel y Bonprix utilizan en almacenes de todo el mundo, así como con palabras y vídeos de internet. En los próximos meses, el modelo se pondrá a disposición de los clientes de Covariant. La empresa espera que el sistema sea cada vez más capaz y eficaz a medida que se implante en el mundo real.
¿Qué puede hacer? En una demostración a la que asistí la semana pasada, Peter Chen y Pieter Abbeel, cofundadores de Covariant, me mostraron cómo los usuarios pueden dar instrucciones al modelo con cinco tipos de datos: texto, imágenes, vídeo, instrucciones robot y medidas.
Por ejemplo, muéstrale una imagen de una papelera llena de material deportivo y dile que coja el paquete de pelotas de tenis. El robot puede coger el objeto, generar una imagen del aspecto que tendrá la papelera una vez que las pelotas hayan desaparecido o crear un vídeo que muestre a vista de pájaro el aspecto que tendrá el robot al realizar la tarea.
Si el modelo predice que no será capaz de agarrar bien el objeto, puede incluso responder: "No consigo agarrarlo bien. ¿Tienes algún consejo?”. La respuesta podría aconsejarle que utilizara un número determinado de ventosas en los brazos para agarrar mejor un objeto: ocho frente a seis, por ejemplo.
Esto representa un gran avance, me contó Chen, con robots que pueden adaptarse a su entorno utilizando datos de entrenamiento en lugar del complejo código específico para cada tarea que utilizaba la anterior generación de robots industriales. También es un paso hacia lugares de trabajo en los que los jefes pueden dar instrucciones en lenguaje humano sin preocuparse por las limitaciones de la mano de obra humana. ("Prepara 600 kits de comida preparada de pasta con pimientos rojos siguiendo la siguiente receta. ¡No descanses!").
Lerrel Pinto, investigador que dirige el laboratorio de robótica de propósito general e inteligencia artificial de la Universidad de Nueva York y no está vinculado a Covariant, afirma que, aunque los ingenieros de robótica ya han construido robots multimodales básicos y los han utilizado en laboratorios, desplegar uno a gran escala capaz de comunicarse de tantos modos es una hazaña impresionante para la empresa.
Para superar a sus competidores, Covariant tendrá que conseguir suficientes datos para que el robot sea útil en la naturaleza, me dijo Pinto. En los almacenes y muelles de carga se pondrá a prueba, interactuando constantemente con nuevas instrucciones, personas, objetos y entornos.
"Los grupos que van a entrenar buenos modelos van a ser los que tengan acceso a grandes cantidades de datos de robots o la capacidad de generar esos datos", dice.
Covariant afirma que el modelo tiene una capacidad de razonamiento "similar a la humana", pero tiene sus limitaciones. Durante la demostración, en la que pude ver en directo un robot Covariant y una ventana de chat para comunicarme con él, Chen me invitó a preguntarle lo que quisiera. Cuando le pedí que "devolviera el plátano al Tote Dos", se esforzó por volver sobre sus pasos, lo que le llevó a coger una esponja, luego una manzana y después otros objetos antes de cumplir por fin la tarea del plátano.
"No entiende el nuevo concepto", explica Chen, "pero es un buen ejemplo: puede que aún no funcione bien en lugares donde no se dispone de buenos datos de entrenamiento".
El nuevo modelo de la empresa encarna un cambio de paradigma que se extiende por el mundo de la robótica. En lugar de enseñar a un robot cómo funciona el mundo manualmente, mediante instrucciones como ecuaciones físicas y código, los investigadores le enseñan de la misma forma que aprenden los humanos: a través de millones de observaciones.
El resultado "puede actuar realmente como un cerebro flexible muy eficaz para resolver tareas robóticas arbitrarias", afirma Chen.
Es probable que este año aumente el número de empresas que utilizan la IA para dotar a sus sistemas robóticos de mayor agilidad. A principios de mes, la start-up de robótica humanoide Figure AI anunció su asociación con OpenAI y recaudó 675 millones de dólares (algo menos de 622 millones de euros) de gigantes tecnológicos como Nvidia y Microsoft. Marc Raibert, fundador de Boston Dynamics, puso en marcha recientemente una iniciativa para integrar mejor la IA en la robótica.
Esto significa que es probable que los avances en el aprendizaje automático empiecen a traducirse en avances en la robótica. Sin embargo, quedan algunas cuestiones por resolver. Si se siguen entrenando modelos lingüísticos de gran tamaño con millones de palabras sin compensar a los autores de las mismas, quizá se espere que los modelos robóticos también se entrenen con vídeos sin pagar a sus creadores. Y si los modelos lingüísticos alucinan y perpetúan los sesgos, ¿qué equivalentes surgirán en robótica?
Mientras tanto, Covariant seguirá adelante, deseoso de que RFM-1 aprenda y se perfeccione continuamente. Con el tiempo, los investigadores pretenden que el robot se entrene con vídeos creados por el propio modelo, el tipo de metaaprendizaje que no sólo hace que me explote la cabeza, sino que también despierta preocupaciones sobre qué ocurrirá si se acumulan los errores cometidos por el modelo. Pero los investigadores lo ven casi como algo inevitable.
"Entrenar sobre eso será una realidad", dice Abbeel. "Si volvemos a hablar dentro de medio año, hablaremos de eso".