El científico jefe de inteligencia artificial de Facebook y uno de los grandes expertos del mundo, Yann LeCun, cree que esta técnica será clave para dotar a las máquinas de la capacidad de razonar, lo que finalmente desembocará en una oleada de nuevas capacidades útiles para el mundo
A los seis meses de edad, un bebé ni siquiera pestañearía si viera un camión de juguete saliendo de una plataforma y empezando a flotar en el aire. Pero si le sometemos al mismo experimento dos o tres meses después, el bebé se dará cuenta al instante de que algo está mal. Ya habrá aprendido el concepto de la gravedad.
"Nadie enseña a un bebé que los objetos se caen", dijo el científico jefe de Inteligencia Artificial (IA) de Facebook y profesor de la Universidad de Nueva York (EE. UU.), Yann LeCun, durante un seminario web organizado por la Asociación de Maquinaria Informática. Y dado que los bebés no tienen un control motor muy sofisticado, según su hipótesis, "aprenden muchas cosas sobre el mundo mediante la observación". Esa teoría podría tener implicaciones importantes para los investigadores que esperan avanzar en los límites de la inteligencia artificial.
El aprendizaje profundo, la categoría de algoritmos de IA que ha propiciado la revolución más reciente de este campo, ha hecho grandes avances a la hora de dotar a las máquinas de habilidades perceptivas como la visión. Pero se ha quedado corto en ofrecerles un razonamiento sofisticado basado en un modelo conceptual de la realidad. En otras palabras, las máquinas no comprenden realmente el mundo que las rodea, y por eso no tienen la capacidad necesaria para relacionarse con él. Las nuevas técnicas ayudan a superar esta limitación; por ejemplo, al dotarlas de algún tipo de memoria de trabajo para que, al aprender y obtener hechos y principios básicos, puedan acumularlos para aprovecharlos en las futuras interacciones.
Pero LeCun ve este reto como una simple pieza del rompecabezas. El científico afirma: "Es evidente que nos falta algo". Un bebé puede desarrollar una comprensión sobre un elefante después de ver solo dos fotos, mientras que los algoritmos de aprendizaje profundo necesitan ver miles, si no millones. Un adolescente puede aprender a conducir de forma segura con solo 20 horas de práctica y lograr no chocarse sin tener que haber experimentado un choque antes, mientras que los algoritmos de aprendizaje reforzado (una subcategoría de aprendizaje profundo) deben pasar por decenas de millones de pruebas en las que cometen muchos errores graves.
LeCun cree que la respuesta al problema reside en la subestimada subcategoría del aprendizaje profundo conocida como aprendizaje no supervisado. Mientras que a los algoritmos basados en el aprendizaje supervisado y reforzado aprenden a lograr un objetivo mediante aportaciones humanas, los no supervisados extraen patrones por sí mismos a partir de los datos, sin ayuda externa. (LeCun prefiere el término "aprendizaje autosupervisado" porque se utiliza una parte de los datos de entrenamiento para predecir el resto).
En los últimos años, estos algoritmos han ganado un impulso importante en el procesamiento del lenguaje natural debido a su capacidad para encontrar las relaciones entre miles de millones de palabras. Esto resulta útil para construir sistemas de predicción de texto como el de autocompletar o para generar textos de prosa convincente. Pero la gran mayoría de la investigación en otros campos de la IA se ha centrado en el aprendizaje supervisado o reforzado.
LeCun cree que el foco de atención de los investigadores de IA debería cambiar. El experto afirma: "Todo lo que aprendemos como seres humanos, casi todo, se hace a través del aprendizaje auto-supervisado. Aprendemos muy pocas cosas a través del aprendizaje supervisado, y otro poco mediante el aprendizaje reforzado. Si el aprendizaje automático, o la IA, es un pastel, la gran mayoría del pastel es el aprendizaje autosupervisado".
¿Qué aspecto tendría esto en la práctica? Los investigadores deberían comenzar centrándose en la predicción temporal. En otras palabras, entrenar a grandes redes neuronales para predecir la segunda mitad de un vídeo después de ver la primera. Aunque es imposible predecirlo todo, se trata de una habilidad fundamental en la capacidad de un bebé para darse cuenta de que un camión de juguete debería caerse al suelo. "Se trata de una especie de simulación en nuestra cabeza de lo que ocurre, por así decirlo", añade LeCun.
Cuando el campo desarrolle técnicas que refinen esas habilidades, tendrán importantes usos prácticos también. "En el contexto de los coches autónomos la predicción de vídeo parece una buena idea porque está bien saber de antemano qué van a hacer otros coches en las calles", aclaró.
Al final, el aprendizaje no supervisado podría ayudar a las máquinas a desarrollar un modelo del mundo para luego predecir su futuros estados, concluyó. Es una gran ambición que la investigación de la IA ha eludido, pero que abriría una serie de capacidades completamente nuevas. LeCun concluye: "La próxima revolución de IA no será supervisada".