Skip to main content
Agi es de repente un tema de mesa

Este artículo apareció originalmente en The Algorithm, nuestro boletín semanal sobre IA. Para recibir primero historias como esta en tu bandeja de entrada, suscríbete aquí.

El concepto de inteligencia artificial general (AGI, por sus siglas en inglés), un sistema de IA extremadamente avanzado que aún no existe, puede compararse con un globo: se infla en momentos de entusiasmo —o temor— sobre su posible impacto y se desinfla cuando la realidad no cumple las expectativas. Esta semana, muchas noticias han contribuido a inflar ese globo. Voy a explicar en qué consiste (aunque quizá exagerando un poco mi analogía).

AGI es un término ambiguo y en constante evolución, que varía según los investigadores o las empresas que trabajan en esta tecnología. Suele hacer referencia a una futura IA capaz de superar a los humanos en tareas cognitivas. El tipo de tareas y el perfil de los humanos con los que se compara marcan la diferencia a la hora de evaluar la viabilidad, la seguridad y el impacto de la AGI en el mercado laboral, la guerra y la sociedad.

Por eso, aunque definir la inteligencia artificial pueda parecer poco atractivo, no es una cuestión trivial. De hecho, un nuevo artículo publicado esta semana por investigadores de Hugging Face y Google, entre otros, demuestra su importancia. Mientras no exista una definición clara, mi recomendación cuando escuche hablar de AGI es preguntarse a qué versión de este concepto se refiere el interlocutor.

Bien, pasemos a las noticias. La semana pasada se presentó Manus, un nuevo modelo de IA desarrollado en China. Un vídeo promocional lo describe como “un vistazo potencial a la AGI”. Está diseñado para llevar a cabo tareas autónomas, como la creación de sitios web y el análisis de datos, y ya está integrado en plataformas de trabajo freelance como Fiverr y Upwork. El jefe de producto de Hugging Face, una reconocida plataforma de IA, lo calificó como “la herramienta de IA más impresionante” que ha probado.

Aún no está claro hasta qué punto Manus es revolucionario. En este contexto—donde la idea de la IA autónoma se presenta como un posible paso hacia la AGI—resulta significativo que el columnista de The New York Times, Ezra Klein, dedicara su pódcast del martes a este concepto. Su conversación con Ben Buchanan, profesor de Georgetown (EE UU) y exasesor especial en inteligencia artificial de la Casa Blanca de Biden, refleja cómo el debate sobre la AGI ha trascendido y se ha convertido en un tema de conversación más amplio.

En el pódcast se abordaron varios temas: el impacto de la inteligencia artificial en las fuerzas del orden y la seguridad nacional, o por qué el gobierno estadounidense considera crucial adelantarse a China en su desarrollo. Los momentos más polémicos giraron en torno a las consecuencias de esta tecnología en el mercado laboral. Klein advirtió que, si la IA está a punto de destacar en numerosas tareas cognitivas, los legisladores deben prepararse para una transición masiva del trabajo humano a los algoritmos. Además, criticó a los demócratas por no tener, hasta el momento, un plan claro para afrontar este cambio.

Podríamos ver esto como una forma de inflar el globo del miedo, al sugerir que el impacto de la AGI es inminente y arrollador. Gary Marcus, profesor de Ciencias Neuronales en la Universidad de Nueva York (EE UU) y conocido crítico de la AGI, no tardó en responder. Escribió una réplica a los puntos planteados en el programa de Klein, desmontando sus argumentos con precisión, como si usara un imperdible gigante para pinchar el globo.

Marcus argumenta que las noticias recientes, incluido el rendimiento decepcionante del nuevo ChatGPT-4.5de OpenAI, indican que la AGI está aún muy lejos, probablemente a más de tres años vista. Según él, pese a décadas de investigación, persisten problemas técnicos fundamentales, y los intentos de mejorar la formación de los modelos y aumentar su capacidad computacional han comenzado a mostrar rendimientos decrecientes. Además, señala que los grandes modelos de lenguaje, que hoy dominan el sector, podrían no ser la clave para alcanzar la AGI.

Según el científico, el debate político no necesita más voces de alarma sobre la inteligencia artificial porque esto suele favorecer más a las empresas que invierten en su desarrollo que al interés público. En su lugar, cree que es crucial fomentar el escepticismo y cuestionar las afirmaciones sobre la inminencia de la AGI. Eso sí, Marcus no niega que esta tecnología pueda llegar a existir, solo pone en duda los plazos en los que algunos predicen su llegada.

Justo después de que Marcus intentara desinflarlo, el globo de la AGI volvió a inflarse. Tres figuras influyentes—el ex CEO de Google, Eric Schmidt; el CEO de Scale AI, Alexandr Wang; y el director del Center for AI Safety, Dan Hendrycks—publicaron un documento titulado Superintelligence Strategy.

Por “superinteligencia”, estos expertos se refieren a una IA que “superaría a los mejores expertos del mundo en casi todos los ámbitos intelectuales”, tal y como explicó Hendrycks en un correo electrónico. Según él, las tareas cognitivas más preocupantes en términos de seguridad incluyen la piratería informática, la virología y la investigación y desarrollo de IA autónoma. En estos campos, superar la capacidad humana podría generar riesgos graves.

En el documento, los autores proponen un plan para mitigar estos riesgos, basado en el concepto de “destrucción mutua asegurada” que se aplica en la política de armas nucleares. Según esta idea, tal y como describen, “cualquier país que intente acaparar el poder estratégico podría enfrentar una respuesta de represalia por parte de sus rivales”. Los expertos sugieren que los chips y los modelos de IA con capacidades avanzadas, como los de virología o ciberataques, deberían ser controlados de manera similar al uranio. Desde esta perspectiva, cuando llegue la inteligencia artificial, traerá consigo riesgos de un nivel comparable al de la bomba atómica.

La última noticia que mencionaré ayuda a desinflar un poco este globo. Investigadores de la Universidad de Tsinghua (China) y de la Universidad Renmin de China publicaron la semana pasada un artículo sobre inteligencia artificial. En él, idearon un juego de supervivencia para evaluar modelos de IA, limitando el número de intentos que estos pueden hacer para obtener las respuestas correctas en una serie de pruebas de referencia. De esta forma, se mide su capacidad de adaptación y aprendizaje.

Es una prueba realmente exigente. El equipo especula que una inteligencia artificial capaz de superarla sería tan avanzada que su número de parámetros—es decir, la cantidad de “botones” en un modelo de IA que pueden ajustarse para mejorar sus respuestas—sería “cinco veces superior al número total de neuronas de todos los cerebros humanos juntos”. Según sus cálculos, con los chips actuales, esta IA costaría 400 millones de veces el valor de mercado de Apple.

Las cifras específicas en las que se basan estas especulaciones, sinceramente, no son lo más importante. El artículo subraya un punto que no se puede pasar por alto en las conversaciones sobre la AGI. Construir un sistema tan ultrapotente podría requerir una cantidad realmente abrumadora de recursos: dinero, chips, metales preciosos, agua, electricidad y trabajo humano. Si la AGI (por muy difusa que sea su definición) resulta ser tan poderosa como se espera, entonces, según algunos, cualquier gasto valdría la pena.

Entonces, ¿qué debemos sacar en claro de todas estas noticias? Hay que reconocer que el globo de la inteligencia artificial se ha inflado un poco más esta semana, y que la tendencia entre las empresas y los responsables políticos es tratar a la inteligencia artificial como algo extremadamente poderoso, con implicaciones tanto para la seguridad nacional como para los mercados laborales.

Esto implica un ritmo de desarrollo constante, en el que cada avance en los grandes modelos lingüísticos y cada nueva versión de estos modelos se considera un paso más hacia algo que se asemeja a la AGI.

Si se cree en esto, la inteligencia artificial general parece inevitable. No obstante, esta idea pasa por alto los numerosos obstáculos a los que se han enfrentado tanto la investigación como el despliegue de la IA, y no explica cómo la inteligencia artificial enfocada en tareas específicas podría convertirse en inteligencia general. Aun así, si se alarga lo suficiente la línea temporal de la inteligencia artificial, parece que esos contratiempos dejarán de tener relevancia.