Inteligencia Artificial
Mientras todos hablan de la IA, Google DeepMind quiere definir qué es la inteligencia artificial general
La inteligencia artificial es uno de los conceptos más controvertidos de la tecnología. Estos investigadores quieren solucionarlo
La Inteligencia Artificial General (IAG) es uno de los temas más candentes de la tecnología actual. También es uno de los más controvertidos. Gran parte del problema es que poca gente se pone de acuerdo sobre el significado del término. Ahora, un equipo de investigadores de Google DeepMind ha publicado un artículo que aclara las diferencias no solo con una nueva definición de IAG, sino con toda una taxonomía.
En términos generales, IAG suele significar inteligencia artificial que iguala, o supera, a los humanos en una serie de tareas. Pero los detalles sobre qué se considera similar a un ser humano, qué tareas y cuántas se suelen pasar por alto: IAG es IA, pero mejor.
Para elaborar la nueva definición, el equipo de Google DeepMind partió de las definiciones ya existentes sobre IAG y extrajo lo que, en su opinión, son sus características comunes y esenciales.
El equipo también ha esbozado cinco niveles ascendentes de IAG: emergente, que incluye chatbots de vanguardia como ChatGPT y Bard, competente, experto, virtuoso y sobrehumano. Este último realiza una amplia gama de tareas mejor que todos los humanos, incluidas aquellas tareas que los humanos no pueden llevar a cabo, como decodificar los pensamientos de otras personas, predecir acontecimientos futuros y hablar con animales. Además, señalan que aún no se ha alcanzado ningún nivel superior al de la IAG emergente.
"Esto aporta una claridad muy necesaria sobre el tema", asegura Julian Togelius, investigador de IA de la Universidad de Nueva York (EE UU), que no participó en el trabajo, y añade: "Demasiadas personas sueltan el término IAG sin haber reflexionado mucho sobre su significado".
A principios de noviembre, los investigadores publicaron su artículo en internet sin hacer ruido. Mantuve una conversación exclusiva con dos miembros del equipo: Shane Legg, uno de los cofundadores de DeepMind y que ahora se presenta como científico jefe de IAG, y Meredith Ringel Morris, científica principal de Google DeepMind para la interacción entre humanos e IA. Ambos me explicaron por qué llegaron a estas definiciones y qué querían conseguir.
Una definición más nítida
"Veo demasiadas discusiones donde las personas parecen utilizar el término con significados diferentes, y eso da lugar a todo tipo de confusiones", asegura Legg, que fue quien ideó el término en primer lugar hace unos 20 años. "Ahora que la IAG se está convirtiendo en un tema tan importante -hasta el primer ministro del Reino Unido habla de ella-, debemos precisar lo que queremos decir".
No siempre fue así. En el pasado, hablar de IAG era tachado de vaguedad, en el mejor escenario, y pensamiento mágico, en el peor. Sin embargo, animados por la expectación en torno a los modelos generativos, los rumores sobre IAG ahora están por todas partes.
Cuando Legg sugirió el término a Ben Goertzel, investigador y antiguo colega, como título para su libro sobre los futuros avances de la IA publicado en 2007, estaba en un punto en el que el público pasaba de ello. "No tenía una definición especialmente clara, no me parecía necesaria", explicó Legg. "En realidad, pensaba en ella más como un campo de estudio que un artefacto".
En aquel momento, su objetivo era distinguir la IA ya existente -que podía hacer una tarea muy bien, como Deep Blue, el programa de ajedrez de IBM- de la IA hipotética que tanto él como otros imaginaban que, algún día, haría muchas tareas muy bien. La inteligencia humana no es como Deep Blue, afirma Legg: "Es algo muy amplio".
Sin embargo, con el paso de los años, el público empezó a pensar en la IA como una propiedad potencial que podrían tener los programas informáticos reales. En la actualidad, es normal que las principales empresas de IA, como Google DeepMind y OpenAI, hagan declaraciones públicas sobre su misión de crear programas de este tipo.
"Si empiezas a tener esas conversaciones, tienes que ser mucho más específico sobre lo que quieres decir", asevera Legg.
Por ejemplo, los investigadores de DeepMind atestiguan que una IAG debe ser tanto de propósito general como de alto rendimiento, no solo una cosa o la otra. "Separar así amplitud y profundidad es muy útil", afirma Togelius. "Demuestra por qué los sistemas de IA muy logrados que hemos visto en el pasado no pueden calificarse como IAG".
También aseguran que una IAG no solo debe ser capaz de realizar una serie de tareas, sino también aprender a hacerlas, evaluar su rendimiento y pedir ayuda cuando sea necesario. Y añaden que importa más lo que puede hacer una IAG que cómo lo hace.
No es que el funcionamiento de una IAG no importe, recuerda Morris. El problema es que aún no sabemos lo suficiente sobre el funcionamiento de los modelos más avanzados, por ejemplo, los grandes modelos lingüísticos, como para centrar la definición en este aspecto.
"A medida que conozcamos mejor estos procesos subyacentes, puede que sea importante revisar nuestra definición de IAG ", sostiene Morris. "Debemos centrarnos en lo que podemos medir ahora de forma científicamente consensuada".
Dar la talla
Medir el rendimiento de los modelos actuales ya es motivo de controversia, pues los investigadores debaten qué significa que un gran modelo lingüístico supere decenas de pruebas de nivel educativo de secundaria, por ejemplo. ¿Es un signo de inteligencia? ¿O una especie de aprendizaje memorístico?
Evaluar el rendimiento de futuros modelos más capaces será aún más difícil. Los investigadores sugieren que, si algún día se desarrolla una IAG, sus capacidades deberían evaluarse de forma continua, en lugar de mediante un puñado de pruebas puntuales.
El equipo también señala que IAG no implica autonomía. "A menudo, se asume que las personas quieren que un sistema funcione de forma completamente autónoma", afirma Morris, pero no siempre es así. En teoría, es posible construir máquinas superinteligentes controladas por humanos.
Una cuestión que los investigadores no abordan en su discusión sobre qué es la AGI es por qué deberíamos construirla. Algunos informáticos, como Timnit Gebru, fundadora del Instituto de Investigación de IA Distribuida, sostienen que todo este empeño es extraño. En una charla en abril de 2023 sobre lo que ella considera la falsa (e incluso peligrosa) promesa de utopía a través de la IAG, Gebru señaló que la hipotética tecnología "suena como un sistema sin proyección con el aparente objetivo de intentar hacerlo todo para todos en cualquier entorno".
La mayoría de los proyectos de ingeniería tienen objetivos bien definidos, la misión de construir una inteligencia artificial no lo tiene. Incluso las definiciones de Google DeepMind permiten una IAG más amplia e inteligente. "No intentes construir un dios", advirtió Gebru.
En la carrera por construir sistemas más grandes y mejores, pocos prestarán atención a estos consejos. En cualquier caso, es de agradecer que se aclare un concepto tan confuso. "Mantener conversaciones absurdas carece de interés", concluye Legg. "Hay muchas cosas buenas en las que profundizar, si superamos estos problemas de definición".