Skip to main content
El nuevo agente de IA de Google Deepmind grieta los problemas del mundo real mejor que los humanos pueden

Google DeepMind ha vuelto a utilizar grandes modelos lingüísticos para descubrir nuevas soluciones a antiguos problemas matemáticos e informáticos. Esta vez, la empresa ha demostrado que su enfoque no solo puede abordar enigmas teóricos sin resolver, sino también mejorar una serie de procesos importantes del mundo real.

La nueva herramienta de Google DeepMind, llamada AlphaEvolve, utiliza la familia Gemini 2.0 de grandes modelos de lenguaje (LLM) para producir código para una amplia gama de tareas diferentes. Los LLM son conocidos por sus aciertos y errores a la hora de codificar. AlphaEvolve puntúa cada una de las sugerencias de Gemini, desechando las malas y ajustando las buenas, en un proceso iterativo, hasta producir el mejor algoritmo posible. En muchos casos, los resultados son más eficaces o precisos que las mejores soluciones existentes (escritas por humanos).

«Se puede ver como una especie de superagente de codificación», dice Pushmeet Kohli, vicepresidente de Google DeepMind, que dirige sus equipos de IA para la Ciencia. «No se limita a proponer un fragmento de código o una edición, sino que realmente produce un resultado del que quizá nadie era consciente».

En concreto, AlphaEvolve ideó una forma de mejorar el software que Google utiliza para asignar trabajos a sus muchos millones de servidores en todo el mundo. Google DeepMind afirma que la empresa ha estado utilizando este nuevo software en todos sus centros de datos durante más de un año, liberando el 0,7% de los recursos informáticos totales de Google. Puede que no parezca mucho, pero a escala de Google es enorme.

Jakob Moosbauer, matemático de la Universidad de Warwick (Reino Unido), está impresionado. Dice que la forma en que AlphaEvolve busca algoritmos que producen soluciones específicas – en lugar de buscar las propias soluciones – lo hace especialmente potente. «Esto hace que el método sea aplicable a una amplia gama de problemas», afirma. «La IA se está convirtiendo en una herramienta que será esencial en matemáticas e informática».

AlphaEvolve continúa una línea de trabajo que Google DeepMind lleva años desarrollando. Su visión es que la IA puede ayudar a avanzar en el conocimiento humano de las matemáticas y la ciencia. En 2022, desarrolló AlphaTensor, un modelo que encontró una forma más rápida de resolver multiplicaciones de matrices -un problema fundamental en informática- batiendo un récord que se había mantenido durante más de 50 años. En 2023, reveló AlphaDev, que descubrió formas más rápidas de realizar una serie de cálculos básicos que los ordenadores realizan billones de veces al día. AlphaTensor y AlphaDev convierten los problemas matemáticos en una especie de juego y buscan una serie de movimientos ganadores.

FunSearch, que llegó a finales de 2023, sustituyó a la IA jugadora por LLM capaces de generar código. Dado que los LLM pueden realizar diversas tareas, FunSearch puede enfrentarse a una mayor variedad de problemas que sus predecesores, que estaban entrenados para jugar a un solo tipo de juego. La herramienta se utilizó para descifrar un famoso problema no resuelto de matemáticas puras.

AlphaEvolve es la nueva generación de FunSearch. En lugar de proponer breves fragmentos de código para resolver un problema concreto, como hacía FunSearch, puede producir programas de cientos de líneas. Esto lo hace aplicable a una variedad mucho más amplia de problemas.

En teoría, AlphaEvolve podría aplicarse a cualquier problema que pueda describirse en código y que tenga soluciones que puedan ser evaluadas por un ordenador. «Los algoritmos dirigen el mundo que nos rodea, así que su impacto es enorme», afirma Matej Balog, investigador de Google DeepMind que dirige el equipo de descubrimiento de algoritmos.

La supervivencia del más fuerte

Así es como funciona: AlphaEvolve puede ser consultado como cualquier LLM. Se le da una descripción del problema y cualquier pista adicional, como soluciones anteriores, y AlphaEvolve obtendrá Gemini 2.0 Flash (la versión más pequeña y rápida del LLM insignia de Google DeepMind) para generar múltiples bloques de código para resolver el problema.

A continuación, toma estas soluciones candidatas, las ejecuta para ver su grado de precisión o eficiencia y las puntúa según una serie de parámetros relevantes. ¿Produce este código el resultado correcto? ¿Es más rápido que las soluciones anteriores? Y así sucesivamente.

A continuación, AlphaEvolve toma las mejores soluciones del lote actual y pide a Gemini que las mejore. A veces, AlphaEvolve vuelve a proponer una solución anterior para evitar que Gemini llegue a un callejón sin salida.

Cuando se atasca, AlphaEvolve también puede recurrir a Gemini 2.0 Pro, el más potente de los LLM de Google DeepMind. La idea es generar muchas soluciones con el Flash más rápido, pero añadir soluciones del Pro más lento cuando sea necesario.

Estas rondas de generación, puntuación y regeneración continúan hasta que Gemini no consigue nada mejor que lo que ya tiene.

Juegos de números

El equipo probó AlphaEvolve en una serie de problemas diferentes. Por ejemplo, examinaron de nuevo la multiplicación de matrices para ver cómo una herramienta de propósito general como AlphaEvolve se comparaba con la especializada AlphaTensor. Las matrices son cuadrículas de números. La multiplicación de matrices es un cálculo básico en el que se basan muchas aplicaciones, desde la inteligencia artificial hasta los gráficos por ordenador. «Es increíble que siga siendo una cuestión pendiente», afirma Balog.

El equipo proporcionó a AlphaEvolve una descripción del problema y un ejemplo de algoritmo estándar para resolverlo. La herramienta no solo generó nuevos algoritmos capaces de calcular matrices de 14 tamaños distintos más rápido que cualquier otro método existente, sino que también mejoró el resultado récord de AlphaTensor al multiplicar dos matrices de cuatro por cuatro.

AlphaEvolve puntuó 16.000 candidatos sugeridos por Gemini para encontrar la solución ganadora, pero sigue siendo más eficiente que AlphaTensor, dice Balog. Además, la solución de AlphaTensor solo funcionaba cuando la matriz estaba llena de 0 y 1. AlphaEvolve también resuelve el problema con otros números. AlphaEvolve también resuelve el problema con otros números.

«El resultado en la multiplicación de matrices es muy impresionante», afirma Moosbauer. «Este nuevo algoritmo puede acelerar los cálculos en la práctica».

Manuel Kauers, matemático de la Universidad Johannes Kepler de Linz (Austria), está de acuerdo: «Es probable que la mejora para matrices tenga relevancia práctica».

Casualmente, Kauers y un colega acaban de utilizar una técnica computacional diferente para encontrar algunos de los aumentos de velocidad que AlphaEvolve consiguió. La semana pasada publicaron en Internet un artículo con sus resultados.

«Es estupendo ver que avanzamos en la comprensión de la multiplicación de matrices», afirma Kauers. «Toda técnica que ayude es una contribución bienvenida a este esfuerzo».

Problemas del mundo real

La multiplicación de matrices fue solo uno de los avances. En total, Google DeepMind probó AlphaEvolve en más de 50 tipos diferentes de rompecabezas matemáticos conocidos, incluidos problemas de análisis de Fourier (la matemática que subyace a la compresión de datos, esencial para aplicaciones como el streaming de vídeo), el problema de superposición mínima (un problema abierto en la teoría de números propuesto por el matemático Paul Erdős en 1955) y los números de osculación (un problema introducido por Isaac Newton que tiene aplicaciones en la ciencia de materiales, la química y la criptografía). AlphaEvolve igualó las mejores soluciones existentes en el 75% de los casos y encontró soluciones mejores en el 20%.

A continuación, Google DeepMind aplicó AlphaEvolve a un puñado de problemas del mundo real. Además de idear un algoritmo más eficiente para gestionar los recursos informáticos en los centros de datos, la herramienta encontró una forma de reducir el consumo de energía de los chips especializados de la unidad de procesamiento tensorial de Google.

AlphaEvolve ha encontrado incluso la forma de acelerar el entrenamiento de Gemini, gracias a un algoritmo más eficaz para gestionar cierto tipo de cálculos utilizados en el proceso de entrenamiento.

Google DeepMind tiene previsto seguir explorando posibles aplicaciones de su herramienta. Una limitación es que AlphaEvolve no puede utilizarse para problemas con soluciones que deban ser puntuadas por una persona, como experimentos de laboratorio sujetos a interpretación.

Moosbauer también señala que, aunque AlphaEvolve puede producir resultados nuevos e impresionantes en una amplia gama de problemas, ofrece poca información teórica sobre cómo ha llegado a esas soluciones. Eso es un inconveniente cuando se trata de avanzar en la comprensión humana.

Aun así, herramientas como AlphaEvolve están llamadas a cambiar la forma de trabajar de los investigadores. «No creo que hayamos terminado», afirma Kohli. «Podemos llegar mucho más lejos en cuanto a la potencia de este tipo de enfoque».