Inteligencia Artificial
Q*, el nuevo modelo de OpenAI que podría acercarnos a la inteligencia artificial general
Si el nuevo modelo de OpenAI puede resolver matemáticas de educación primaria, allanaría el camino para sistemas más potentes
Desde los dramáticos acontecimientos de la semana pasada en OpenAI, la rumorología se ha disparado sobre las razones por las que Ilya Sutskever, director científico de la empresa, y su junta directiva decidieron destituir a su CEO Sam Altman.
Aunque todavía no se conocen todos los detalles, ya se ha informado de que los investigadores de OpenAI habían realizado un "gran avance" en IA que había alarmado al personal. Reuters y The Information anunciaron que los investigadores idearon una nueva forma de crear potentes sistemas de IA y habían creado un nuevo modelo, llamado Q* y pronunciado Q Star, capaz de realizar operaciones matemáticas de nivel escolar. Según las personas que hablaron con Reuters, algunos en la empresa consideran que esto podría ser un gran avance en la búsqueda de OpenAI para construir la inteligencia artificial general (IAG). Un concepto muy publicitado de un sistema de IA más inteligente que los humanos. La empresa no ha querido hacer comentarios sobre Q*.
Las redes sociales están llenas de especulaciones y exageraciones, así que contacté con algunos expertos para calibrar la importancia real de cualquier avance en matemáticas e IA.
Los investigadores llevan años intentando que los modelos de IA resuelvan problemas matemáticos. Modelos lingüísticos como ChatGPT y GPT-4 pueden hacer algunas operaciones matemáticas, pero no de manera acertada o fiable. En la actualidad, no disponemos de los algoritmos ni de las arquitecturas adecuadas para resolver problemas matemáticos de forma fiable mediante IA, afirma Wenda Li, profesora de IA en la Universidad de Edimburgo (Escocia). El aprendizaje profundo y los transformadores, un tipo de red neuronal utilizado por los modelos lingüísticos, son excelentes para reconocer patrones, pero puede que por sí solo esto no sea suficiente, añade Li.
Las matemáticas son un punto de referencia para el razonamiento, afirma la experta. En teoría, una máquina capaz de razonar sobre matemáticas podría aprender a realizar otras tareas a partir de la información ya existente, como escribir código informático o extraer conclusiones de un artículo de prensa. Las matemáticas son un problema difícil de resolver porque requiere que los modelos de IA tengan capacidad de razonamiento y comprendan a qué se enfrentan en realidad.
Un sistema de IAG capaz de resolver problemas matemáticos de forma fiable tendría que conocer en profundidad las definiciones concretas de determinados conceptos que pueden ser muy abstractos. Según Katie Collins, investigadora de la Universidad de Cambridge (Reino Unido) especializada en Matemáticas e IA, muchos problemas matemáticos requieren cierto nivel de planificación en varios pasos. De hecho, Yann LeCunn, científico jefe de IA en Meta, publicó hace unos días en X y LinkedIn que Q* podría ser "un intento de planificación de OpenAI".
Quienes temen que la IA suponga un riesgo existencial para los seres humanos, una de las preocupaciones fundacionales de OpenAI, a su vez temen que estas capacidades puedan conducir a una IA maligna. Según Collins, los problemas de seguridad podrían surgir si se permitiera a estos sistemas de IA establecer sus propios objetivos e interactuar con el mundo físico o el mundo digital de alguna manera.
Aunque las matemáticas y la IA nos acerquen a sistemas de IA más potentes, resolver este tipo de problemas matemáticos no significa el nacimiento de una superinteligencia.
"No creo que nos lleve a la IAG o a situaciones aterradoras de manera inmediata", asegura Collins. También es importante subrayar qué tipo de problemas matemáticos está resolviendo la IA, añade.
"Resolver problemas matemáticos de [educación] primaria es muy distinto de ampliar los límites de las matemáticas al nivel de lo que puede hacer un medallista Fields [máximo galardón en matemáticas]", afirma Collins.
La investigación en aprendizaje automático se ha centrado en resolver problemas básicos, pero los sistemas de IA más avanzados aún no los han resuelto del todo. Algunos modelos de IA fracasan en problemas matemáticos muy sencillos, pero luego pueden destacar en problemas matemáticos muy difíciles, explica Collins. Por ejemplo, OpenAI ha desarrollado herramientas específicas de IA que pueden resolver problemas difíciles de olimpiadas de educación secundaria, pero estos sistemas solo superan a los humanos de manera ocasional.
No obstante, crear un sistema de IA capaz de resolver ecuaciones matemáticas es un gran avance, si es que Q* puede hacerlo. Una comprensión más profunda de las matemáticas podría abrir la puerta a aplicaciones que ayuden a la investigación científica y la ingeniería, por ejemplo. La capacidad de generar respuestas matemáticas podría ayudar a desarrollar una tutoría mejor y personalizada, o ayudaría a los matemáticos a realizar álgebra más rápido o resolver problemas más complicados.
No es la primera vez que un nuevo modelo suscita el interés por la IA. En 2022, los profesionales de la tecnología aseguraban lo mismo sobre Gato, de Google DeepMind, un modelo de IA "generalista" que puede jugar a videojuegos de Atari, subtitular imágenes, chatear y apilar bloques con un brazo robótico real. Por aquel entonces, algunos investigadores de IA afirmaban que DeepMind estaba "a punto de conseguir" la IAG por su capacidad para hacer tantas tareas diferentes y tan bien. Mismo cuento, diferente laboratorio de IA.
Aunque sea bueno para las relaciones públicas, estos ciclos de grandes descubrimientos hacen más mal que bien a todo el sector, pues distrae al público de los daños y problemas tangibles que rodean a la IA. Los rumores sobre un nuevo y potente modelo de IA también podrían ser un gol en propia puerta para el sector tecnológico, reacio a la regulación. Por ejemplo, la Unión Europea está muy cerca de finalizar su amplia Ley de IA. Una de las mayores luchas actuales entre los legisladores es si debe darse a las empresas tecnológicas más poder para autorregular los modelos de IA de vanguardia.
El consejo de administración de OpenAI se diseñó como alarma de seguridad interna de la empresa y mecanismo de gobernanza para evitar el lanzamiento de tecnologías perjudiciales. El drama de la semana pasada en la sala de juntas ha demostrado que en estas empresas siempre prevalece el resultado final, y hará más difícil argumentar por qué debe confiarse la autorregulación a estas empresas. Legisladores, tomen nota.