Skip to main content

Yann LeCun es un ganador del Premio Turing y uno de los principales investigadores de inteligencia artificial, pero desde hace tiempo es una figura a la contra en el mundo tecnológico. Cree que la actual obsesión de la industria por los grandes modelos de lenguaje es equivocada y que, en última instancia, no logrará resolver muchos de los problemas más urgentes. 

En su lugar, piensa que deberíamos apostar por los world models (modelos de mundo), un tipo diferente de IA que refleja con precisión las dinámicas del mundo real. También es un firme defensor de la IA de código abierto y critica el enfoque cerrado de laboratorios punteros como OpenAI y Anthropic. 

Quizá no sorprenda, entonces, que haya dejado recientemente Meta, donde había ejercido como director científico de FAIR (Fundamental AI Research), el influyente laboratorio de investigación que fundó. Meta ha tenido dificultades para ganar tracción con su modelo de IA abierto Llama y ha afrontado turbulencias internas, incluida la controvertida adquisición de ScaleAI. 

LeCun conversó con MIT Technology Review en una entrevista exclusiva online desde su apartamento de París (Francia) para hablar de su nueva empresa, la vida después de Meta, el futuro de la inteligencia artificial y por qué cree que la industria persigue las ideas equivocadas. 

Tanto las preguntas como las respuestas que figuran a continuación han sido editadas para mayor claridad y brevedad. 

 

Acabas de anunciar una nueva empresa, Advanced Machine Intelligence (AMI). Cuéntame cuáles son las grandes ideas que hay detrás. 

Va a ser una empresa global, pero con sede en París (Francia). Se pronuncia “ami”, que en francés significa “amigo”. Estoy entusiasmado. Existe una concentración muy alta de talento en Europa, pero no siempre se le da un entorno adecuado para florecer. Y sin duda hay una gran demanda, por parte de la industria y de los gobiernos, de una empresa creíble de IA pionera que no sea ni china ni estadounidense. Creo que eso jugará a nuestro favor. 

Así que se trata de una alternativa ambiciosa al binomio actual entre Estados Unidos y China. ¿Qué le llevó a querer seguir esa tercera vía? 

Bueno, para muchos países existen cuestiones de soberanía, y desean tener cierto control sobre la IA. Lo que yo defiendo es que la IA se va a convertir en una plataforma, y la mayoría de las plataformas tienden a ser de código abierto. Lamentablemente, esa no es realmente la dirección que está tomando la industria estadounidense, ¿no? A medida que aumenta la competencia, sienten que deben volverse menos transparentes. Creo que eso es un error estratégico. 

Es totalmente cierto para OpenAI, que pasó de ser muy abierta a muy cerrada, y Anthropic siempre ha sido cerrada. Google fue un poco abierta, en cierto modo. Y luego está Meta, que ya veremos. Mi sensación es que, en este momento, es que la industria no va la dirección positiva. 

Al mismo tiempo, China ha adoptado por completo este enfoque abierto. Así que todas las principales plataformas de IA de código abierto son chinas, y el resultado es que el mundo académico y las start-ups fuera de EE UU han adoptado básicamente los modelos chinos. No hay nada malo en eso, los modelos chinos son buenos. Los ingenieros y científicos chinos son excelentes. Pero si imaginamos un futuro en el que toda nuestra dieta informativa esté mediada por asistentes de IA, y las únicas opciones sean modelos en inglés producidos por empresas propietarias siempre próximas a EE UU o modelos chinos que pueden ser de código abierto pero que deben ajustarse para que respondan preguntas sobre la plaza de Tiananmén en 1989… pues ya ves, no es un futuro muy agradable ni estimulante. 

Los [modelos del futuro] deberían poder ser customizados por cualquiera y producir una gran diversidad de asistentes de IA, con distintas habilidades lingüísticas, sistemas de valores, sesgos políticos e intereses diferentes. Necesitas una gran diversidad de asistentes por la misma razón por la que necesitas una gran diversidad de prensa. 

Sin duda es un argumento convincente. ¿Cómo están recibiendo esa idea los inversores? 

Les gusta mucho. Muchos inversores de capital riesgo son muy favorables a esta idea del código abierto, porque saben que muchas pequeñas start-ups dependen realmente de los modelos de código abierto. No tienen los medios para entrenar su propio modelo, y para ellas es estratégicamente peligroso adoptar un modelo propietario. 

Recientemente dejó Meta. ¿Cuál es su opinión sobre la empresa y el liderazgo de Mark Zuckerberg? Existe la percepción de que Meta ha desaprovechado su ventaja en IA. 

Creo que FAIR [el laboratorio de LeCun en Meta] fue extremadamente exitoso en la parte de investigación. Donde Meta tuvo menos éxito fue en recoger esa investigación y transformarla en tecnología práctica y productos. Mark tomó algunas decisiones que él creía que eran las mejores para la empresa. Puede que yo no estuviera de acuerdo con todas ellas. Por ejemplo, el grupo de robótica de FAIR fue eliminado, lo cual creo que fue un error estratégico. Pero yo no soy el director de FAIR. La gente toma decisiones de forma racional y no hay razón para molestarse. 

Entonces, ¿nada de resentimiento? ¿Podría Meta ser un futuro cliente de AMI? 

¡Meta podría ser nuestro primer cliente! Ya veremos. El trabajo que estamos haciendo no compite directamente. Nuestro enfoque en los world models para el mundo físico es muy diferente de su enfoque en la IA generativa y los grandes modelos de lenguaje (LLM, por sus siglas en inglés). 

Usted trabajaba en IA mucho antes de que los LLM se convirtieran en el enfoque dominante. Pero desde que ChatGPT apareció, los LLM se han vuelto casi sinónimo de IA. 

Sí, y vamos a cambiar eso. La cara pública de la IA, quizá, son los LLM y los chatbots de varios tipos. Pero los más recientes ya no son LLM puros. Son LLM más muchas otras cosas, como sistemas de percepción y código que resuelve problemas específicos. Así que veremos a los LLM como una especie de orquestador en los sistemas, en cierto modo. 

Más allá de los LLM, hay mucha IA que funciona entre bastidores y que sostiene una gran parte de nuestra sociedad. Hay sistemas de asistencia a la conducción en los coches, imágenes de resonancia magnética de lectura rápida, algoritmos que gestionan las redes sociales… todo eso es IA. 

Usted ha defendido abiertamente que los LLM solo pueden llevarnos hasta cierto punto. ¿Cree que están sobrevalorados hoy en día? ¿Puede resumir para nuestros lectores por qué considera que los LLM no son suficientes? 

Hay un sentido en el que no han sido sobrevalorados: son extremadamente útiles para mucha gente, especialmente si escribes texto, investigas o programas. Los LLM manipulan muy bien el lenguaje. Pero la gente ha tenido esta ilusión (o delirio) de que es cuestión de tiempo que podamos ampliarlos hasta alcanzar una inteligencia de nivel humano, y eso es simplemente falso. 

La parte realmente difícil es entender el mundo real. Es la Paradoja de Moravec (un fenómeno observado por el científico informático Hans Moravec en 1988): lo que es fácil para nosotros, como la percepción y la navegación, es difícil para los ordenadores, y viceversa. Los LLM están limitados al mundo discreto del texto. No pueden razonar ni planificar realmente porque les falta un modelo del mundo. No pueden predecir las consecuencias de sus acciones. Esta es la razón por la que no tenemos un robot doméstico tan ágil como un gato o un coche realmente autónomo. 

Vamos a tener sistemas de IA que tengan inteligencia parecida a la humana y de nivel humano, pero no se construirán sobre LLM, y eso no va a suceder el año que viene ni dentro de dos. Va a llevar tiempo. Faltan avances conceptuales enormes antes de que tengamos sistemas con inteligencia de nivel humano. Y eso es en lo que he estado trabajando. Y esta empresa, AMI Labs, se centra en esa próxima generación. 

Y su solución son los world models y la arquitectura JEPA (JEPA, o “joint embedding predictive architecture”, es un marco de aprendizaje que entrena modelos de IA para comprender el mundo, creado por LeCun mientras estaba en Meta). ¿Cuál es el argumento de venta? 

El mundo es impredecible. Si intentas construir un modelo generativo que prediga todos los detalles del futuro, fallará. JEPA no es IA generativa. Es un sistema que aprende a representar vídeos muy bien. La clave es aprender una representación abstracta del mundo y hacer predicciones en ese espacio abstracto, ignorando los detalles que no puedes predecir. Eso es lo que hace JEPA. Aprende las reglas subyacentes del mundo a partir de la observación, como un bebé aprendiendo sobre la gravedad. Esta es la base del sentido común, y es la clave para construir sistemas realmente inteligentes que puedan razonar y planificar en el mundo real. El trabajo más emocionante en este ámbito está saliendo del mundo académico, no de los grandes laboratorios industriales atrapados en el mundo de los LLM. 

La falta de datos no textuales ha sido un problema a la hora de hacer que los sistemas de IA avancen en la comprensión del mundo físico. JEPA se entrena con vídeos. ¿Qué otros tipos de datos utilizarán? 

Nuestros sistemas se entrenarán con vídeo, audio y datos de sensores de todo tipo, no solo texto. Estamos trabajando con diversas modalidades, desde la posición de un brazo robótico hasta datos Lidar o audio. También participo en un proyecto que utiliza JEPA para modelar fenómenos físicos y clínicos complejos. 

¿Cuáles son algunas de las aplicaciones reales y concretas que imagina para los world models? 

Las aplicaciones son enormes. Piensa en procesos industriales complejos con miles de sensores, como en un motor a reacción, una acería o una fábrica química. Ahora mismo no existe ninguna técnica capaz de construir un modelo completo y holístico de estos sistemas. Un world model podría aprender esto a partir de los datos de sensores y predecir el comportamiento del sistema. O piensa en unas gafas inteligentes que puedan ver lo que haces, identificar tus acciones y luego predecir lo que vas a hacer para ayudarte. Esto es lo que hará que los sistemas agénticos sean por fin fiables. Un sistema agéntico que debe actuar en el mundo no puede funcionar de forma fiable si no tiene un modelo del mundo para predecir las consecuencias de sus acciones. Sin él, inevitablemente cometerá errores. Esta es la clave para desbloquear todo, desde robots domésticos realmente útiles hasta la conducción autónoma de nivel 5. 

Los robots humanoides están de moda últimamente, especialmente los fabricados por empresas de China. ¿Qué opina? 

Existen todas estas formas de fuerza bruta para sortear las limitaciones de los sistemas de aprendizaje, que requieren cantidades desmesuradas de datos para hacer cualquier cosa. Así que el secreto de todas estas empresas que consiguen que sus robots hagan kung-fu o bailen es que todo está planificado de antemano. Pero, sinceramente, nadie, absolutamente nadie, sabe cómo hacer que esos robots sean lo bastante inteligentes como para ser útiles. Créeme. 

Necesitas una cantidad enorme de datos de teleoperación para cada tarea, y cuando el entorno cambia un poco, no generaliza demasiado bien. Esto nos indica que nos falta algo muy grande. La razón por la que un adolescente de 17 años puede aprender a conducir en 20 horas es porque ya sabe muchísimo sobre cómo se comporta el mundo. Si queremos un robot doméstico realmente útil, necesitamos sistemas con una buena comprensión del mundo físico. Y eso no va a ocurrir hasta que tengamos buenos world models y planificación. 

Crece la sensación de que cada vez es más difícil hacer investigación fundamental en IA desde el mundo académico debido a los enormes recursos computacionales necesarios. ¿Cree que las innovaciones más importantes vendrán ahora de la industria? 

No. Los LLM son ya desarrollo tecnológico, no investigación. Es cierto que es muy difícil para los académicos desempeñar un papel importante ahí debido a los requisitos de computación, el acceso a datos y el soporte de ingeniería. Pero ahora es un producto. No es algo que deba interesar a la academia siquiera. Es como el reconocimiento de voz a principios de la década de 2010: era un problema resuelto, y el progreso estaba en manos de la industria.

Lo que la academia debería estar trabajando son objetivos a largo plazo que vayan más allá de las capacidades de los sistemas actuales. Por eso les digo a las personas en universidades: no trabajen en LLM. No tiene sentido. No van a poder competir con lo que sucede en la industria. Trabajen en otra cosa. Inventen nuevas técnicas. Los grandes avances no van a venir de escalar más los LLM. El trabajo más emocionante sobre world models está viniendo de la academia, no de los grandes laboratorios industriales. Toda la idea de usar circuitos de atención en redes neuronales surgió de la Universidad de Montreal. Ese artículo de investigación inició toda la revolución. Ahora que las grandes empresas se están cerrando, los avances se van a ralentizar. La academia necesita acceso a recursos de computación, pero deben centrarse en “lo próximo”, no en pulir “lo último”. 

Tiene muchas facetas: profesor, investigador, educador, pensador público… y ahora incorpora una nueva. ¿Cómo va a ser eso para usted? 

Voy a ser el presidente ejecutivo de la empresa, y Alex LeBrun [un antiguo colega de Meta AI] será el CEO. Será LeCun y LeBrun, suena bien si lo pronuncias a la francesa. 

Voy a mantener mi puesto en la Universidad de Nueva York. Imparto una clase al año, tengo estudiantes de doctorado y postdoctorados, así que seguiré con base en Nueva York. Pero voy a París con bastante frecuencia por mi laboratorio. 

¿Significa eso que no estará muy involucrado en el día a día? 

Bueno, hay dos formas de estar involucrado. Una es gestionar a la gente día a día, y otra es “arremangarse” y trabajar en proyectos de investigación, ¿verdad? 

Puedo gestionar, pero no me gusta. Esa no es mi misión en la vida. Mi misión es hacer avanzar la ciencia y la tecnología todo lo que podamos, inspirar a otras personas a trabajar en cosas interesantes, y luego contribuir a esas cosas. Ese ha sido mi papel en Meta durante los últimos siete años. Fundé FAIR y lo dirigí durante cuatro o cinco años. En cierto modo odiaba ser director. No soy bueno en esta cosa de la gestión de carreras. Soy mucho más visionario y científico. 

¿Qué hace que Alex LeBrun sea el perfil adecuado? 

Alex es un emprendedor en serie; ha creado tres empresas de IA exitosas. La primera la vendió a Microsoft; la segunda a Facebook, donde fue jefe de la división de ingeniería de FAIR en París (París, Francia). Luego se fue para crear Nabla, una empresa muy exitosa en el ámbito sanitario. Cuando le ofrecí la oportunidad de unirse a mí en este proyecto, aceptó casi de inmediato. Tiene la experiencia para construir la empresa, permitiéndome centrarme en la ciencia y la tecnología.

Su sede está en París. ¿Dónde más planean tener oficinas? 

Somos una empresa global. Tendremos una oficina en Norteamérica.

¿Nueva York, quizá? 

Nueva York es genial. Es donde estoy yo, ¿no? Y no es Silicon Valley. Silicon Valley es un poco una monocultura.

¿Y Asia? ¿Quizás Singapur? 

Probablemente, sí. Te dejaré adivinar.

¿Y cómo están atrayendo talento? 

No tenemos ningún problema para reclutar. Hay muchas personas en la comunidad de investigación en IA que creen que el futuro de la IA está en los world models. Esas personas, independientemente del paquete salarial, se sentirán motivadas para venir a trabajar con nosotros porque creen en el futuro tecnológico que estamos construyendo. Ya hemos fichado a gente de lugares como OpenAI, Google DeepMind y xAI. 

He oído que Saining Xie, un investigador destacado de NYU y Google DeepMind, podría unirse como científico jefe. ¿Algún comentario? 

Saining es un investigador brillante. Le tengo muchísima admiración. Ya le he contratado dos veces. Le contraté en FAIR, y convencí a mis colegas de NYU de que debíamos contratarle allí. Digamos simplemente que le tengo un gran respeto. 

¿Cuándo podrá compartir más detalles sobre AMI Labs, como la financiación o los miembros centrales? 

Pronto, quizás en febrero. Ya te avisaré.