
El día después de su toma de posesión en enero, el presidente Donald Trump anunció Stargate, una iniciativa de 500 000 millones de dólares (425.000 millones de euros) para construir una infraestructura de IA, respaldada por algunas de las mayores empresas tecnológicas. Stargate tiene como objetivo acelerar la construcción de enormes centros de datos y redes eléctricas en todo Estados Unidos para garantizar que mantiene su ventaja sobre China.
El enfoque de «lo que sea necesario» en la carrera por el dominio mundial de la IA fue el tema de conversación en Davos, afirma Raquel Urtasun, fundadora y directora ejecutiva de la startup canadiense de camiones robotizados Waabi, en referencia a la reunión anual del Foro Económico Mundial celebrada en enero en Suiza, la misma semana que el anuncio de Trump. «Me preocupa bastante el rumbo que está tomando el secto»», afirma Urtasun.
No es la única. «Se están invirtiendo dólares, se están quemando GPU, se está evaporando agua… Es absolutamente la dirección equivocada», afirma Ali Farhadi, director ejecutivo del Allen Institute for AI, una organización sin ánimo de lucro con sede en Seattle (Washington, EE UU).
Pero si se analiza más detenidamente el debate sobre el aumento vertiginoso de los costes y el impacto climático, se encuentran motivos para la esperanza. Se están desarrollando innovaciones que podrían mejorar la eficiencia del software que sustenta los modelos de IA, los chips informáticos en los que se ejecutan esos modelos y los centros de datos en los que esos chips funcionan las 24 horas del día.
Esto es lo que hay que saber sobre cómo se podría reducir el consumo de energía y, por lo tanto, las emisiones de carbono en estos tres ámbitos, además de un argumento adicional para el optimismo cauteloso: hay razones para creer que la realidad empresarial subyacente acabará inclinándose hacia una IA más eficiente desde el punto de vista energético.
1/ Modelos más eficientes
El punto de partida más obvio son los propios modelos: cómo se crean y cómo se ejecutan.
Los modelos de IA se construyen entrenando redes neuronales con grandes cantidades de datos. Los modelos de lenguaje grandes se entrenan con enormes cantidades de texto, los modelos de conducción autónoma se entrenan con enormes cantidades de datos de conducción, y así sucesivamente.
Sin embargo, la forma en que se recopilan esos datos suele ser indiscriminada. Los grandes modelos lingüísticos se entrenan con conjuntos de datos que incluyen texto extraído de la mayor parte de Internet y enormes bibliotecas de libros escaneados. La práctica habitual ha sido recoger todo lo que se encuentra, mezclarlo y ver qué sale. Este enfoque ha funcionado, sin duda, pero entrenar un modelo con un conjunto de datos masivo una y otra vez para que pueda extraer patrones relevantes por sí mismo es una pérdida de tiempo y energía.
Puede que haya una forma más eficiente. No se espera que los niños aprendan simplemente leyendo todo lo que se ha escrito; se les imparte un plan de estudios específico. Urtasun cree que deberíamos hacer algo similar con la IA, entrenando modelos con datos más seleccionados y adaptados a tareas específicas. (Waabi entrena sus camiones robotizados dentro de una simulación hiperrealista que permite un control minucioso de los datos virtuales que se presentan a sus modelos).
No es solo Waabi. Writer, una startup de IA que crea grandes modelos de lenguaje para clientes empresariales, afirma que sus modelos son más baratos de entrenar y ejecutar, en parte porque los entrena utilizando datos sintéticos. Alimentar sus modelos con conjuntos de datos a medida, en lugar de otros más grandes, pero menos seleccionados, agiliza el proceso de entrenamiento (y, por lo tanto, lo abarata). Por ejemplo, en lugar de limitarse a descargar Wikipedia, el equipo de Writer toma páginas individuales de la misma y reescribe su contenido en diferentes formatos (como preguntas y respuestas en lugar de bloques de texto, etc.) para que sus modelos puedan aprender más con menos.
La formación es solo el comienzo del ciclo de vida de un modelo. A medida que los modelos se han vuelto más grandes, su funcionamiento se ha encarecido. Los denominados modelos de razonamiento, que procesan una consulta paso a paso antes de generar una respuesta, consumen mucha energía porque calculan una serie de subrespuestas intermedias para cada respuesta. El precio de estas nuevas capacidades es desorbitado: se estima quecuesta hasta 30 000 dólares (25.500 euros) por tarea el modelo de razonamiento o3 de OpenAI .
Pero esta tecnología solo tiene unos meses y aún es experimental. Farhadi espera que estos costes bajen pronto. Por ejemplo, los ingenieros descubrirán cómo evitar que los modelos de razonamiento se adentren demasiado en un camino sin salida antes de determinar que no es viable. «La primera vez que haces algo es mucho más caro, y luego descubres cómo hacerlo más pequeño y eficiente», dice Farhadi. «Es una tendencia bastante constante en la tecnología».
Una forma de obtener mejoras en el rendimiento sin grandes aumentos en el consumo de energía es ejecutar los pasos de inferencia (los cálculos que realiza un modelo para dar con su respuesta) en paralelo, explica. La computación paralela es la base de gran parte del software actual, especialmente de los grandes modelos de lenguaje (las GPU son paralelas por diseño). Aun así, la técnica básica podría aplicarse a una gama más amplia de problemas. Al dividir una tarea y ejecutar diferentes partes de ella al mismo tiempo, la computación paralela puede generar resultados más rápidamente. También puede ahorrar energía al hacer un uso más eficiente del hardware disponible. Pero requiere nuevos algoritmos inteligentes para coordinar las múltiples subtareas y reunirlas en un único resultado al final.
Los modelos más grandes y potentes tampoco se utilizarán todo el tiempo. Se habla mucho de los modelos pequeños, versiones de los grandes modelos de lenguaje que se han reducido a paquetes de bolsillo. En muchos casos, estos modelos más eficientes funcionan tan bien como los más grandes, especialmente para casos de uso específicos.
A medida que las empresas descubren cómo los modelos de lenguaje grandes se adaptan (o no) a sus necesidades, esta tendencia hacia modelos personalizados más eficientes está despegando. No se necesita un LLM polivalente para gestionar el inventario o responder a consultas de clientes especializados. «Va a haber un número realmente enorme de modelos especializados, no un modelo único que lo resuelva todo», afirma Farhadi.
Christina Shim, directora de sostenibilidad de IBM, está observando esta tendencia en la forma en que sus clientes adoptan la tecnología. Trabaja con empresas para asegurarse de que eligen los modelos más pequeños y que consumen menos energía posible. «No es solo el modelo más grande el que te dará más por tu dinero», afirma. Un modelo más pequeño que hace exactamente lo que necesitas es una mejor inversión que uno más grande que hace lo mismo: «No usemos un mazo para clavar un clavo».
2/ Chips informáticos más eficientes
A medida que el software se simplifica, el hardware en el que se ejecuta también se vuelve más eficiente. Aquí hay una tensión: a corto plazo, los fabricantes de chips como Nvidia compiten por desarrollar chips cada vez más potentes para satisfacer la demanda de las empresas que quieren ejecutar modelos cada vez más potentes. Pero a largo plazo, esta carrera no es sostenible.
«Los modelos se han vuelto tan grandes que incluso ejecutar la etapa de inferencia empieza a ser un gran reto», afirma Naveen Verma, cofundador y director ejecutivo de la nueva empresa fabricante de microchips EnCharge AI.
Empresas como Microsoft y OpenAI están perdiendo dinero al ejecutar sus modelos en centros de datos para satisfacer la demanda de millones de personas. Los modelos más pequeños serán de ayuda. Otra opción es trasladar la computación de los centros de datos a los propios equipos de los usuarios.
Eso es algo que Microsoft intentó con su iniciativa Copilot+ PC, en la que comercializó un PC superpotente que permitía ejecutar un modelo de IA (y cubrir los gastos de energía) por cuenta propia. No ha despegado, pero Verma cree que el impulso continuará porque las empresas querrán descargar el mayor coste posible del funcionamiento de un modelo.
Pero conseguir que los modelos de IA (incluso los pequeños) funcionen de forma fiable en los dispositivos personales de los usuarios requerirá un cambio radical en los chips que suelen alimentar esos dispositivos. Estos chips deben ser aún más eficientes desde el punto de vista energético, ya que deben poder funcionar solo con una batería, afirma Verma.
Ahí es donde entra en juego EnCharge. Su solución es un nuevo tipo de chip que abandona el cálculo digital en favor de algo llamado, computación analógica en memoria. En lugar de representar la información con ceros y unos binarios, como los componentes electrónicos de los chips digitales convencionales, los componentes electrónicos de los chips analógicos pueden representar la información en un rango de valores entre cero y uno. En teoría, esto permite hacer más con la misma cantidad de energía.
EnCharge se escindió del laboratorio de investigación de Verma en Princeton (EE UU) en 2022. «Sabemos desde hace décadas que la computación analógica puede ser mucho más eficiente en órdenes de magnitud más que la digital», afirma Verma. Pero los ordenadores analógicos nunca han funcionado bien en la práctica porque cometían muchos errores. Verma y sus colegas han descubierto una forma de realizar computación analógica que es precisa.
EnCharge se centra únicamente en el cálculo básico que requiere la IA actual. Con el apoyo de gigantes de los semiconductores como TSMC, la startup está desarrollando hardware que realiza multiplicaciones matriciales de alta dimensión (la matemática básica detrás de todos los modelos de aprendizaje profundo) en un chip analógico y luego devuelve el resultado al ordenador digital circundante.
El hardware de EnCharge es solo uno de los nuevos diseños de chips experimentales que se vislumbran en el horizonte. IBM y otras empresas llevan años explorando algo llamado computación neuromórfica. La idea es diseñar ordenadores que imiten la capacidad de procesamiento supereficiente del cerebro. Otra vía es la de los chips ópticos, que sustituyen los electrones de un chip tradicional por luz, reduciendo de nuevo la energía necesaria para el cálculo. Ninguno de estos diseños se acerca todavía a la competencia de los chips digitales electrónicos fabricados por empresas como Nvidia. Pero a medida que crece la demanda de eficiencia, estas alternativas estarán esperando su oportunidad.
Además, no solo se puede mejorar la eficiencia de los chips. Gran parte de la energía de los ordenadores se consume en el intercambio de datos. IBM afirma haber desarrollado un nuevo tipo de conmutador óptico, un dispositivo que controla el tráfico digital, que es un 80 % más eficiente que los conmutadores anteriores.
3/ Refrigeración más eficiente en los centros de datos
Otra fuente enorme de demanda de energía es la necesidad de gestionar el calor residual producido por el hardware de alta gama en el que se ejecutan los modelos de IA. Tom Earp, director de ingeniería de la empresa de diseño Page, lleva construyendo centros de datos desde 2006, incluyendo un periodo de seis años trabajando para Meta. Earp busca la eficiencia en todo, desde la estructura del edificio hasta el suministro eléctrico, los sistemas de refrigeración y la forma en que se transfieren los datos.
Durante más de una década, a medida que la ley de Moore perdía fuerza, los diseños de los centros de datos se mantuvieron bastante estables, afirma Earp. Pero entonces todo cambió. Con el cambio a procesadores como las GPU y con diseños de chips aún más novedosos en el horizonte, es difícil predecir qué tipo de hardware necesitarán los nuevos centros de datos —y, por lo tanto, qué demanda energética tendrán que soportar— dentro de unos años. Pero a corto plazo, lo más seguro es que los chips sigan ganando velocidad y calentándose: «Lo que veo es que las personas que tienen que tomar estas decisiones están planificando un gran aumento de la potencia que vamos a necesitar», afirma Earp.
Una cosa está clara: los chips que ejecutan modelos de IA, como las GPU, requieren más potencia por unidad de espacio que los tipos anteriores de chips informáticos. Y eso tiene importantes repercusiones para la infraestructura de refrigeración dentro de un centro de datos. «Cuando aumenta la potencia, aumenta el calor», afirma Earp.
Con tantos chips de alta potencia apretujados entre sí, la refrigeración por aire (es decir, grandes ventiladores) ya no es suficiente. El agua se ha convertido en el refrigerante por excelencia, ya que es mejor que el aire para disipar el calor. Esto no es una buena noticia para las fuentes de agua locales cercanas a los centros de datos. Pero hay formas de hacer que la refrigeración por agua sea más eficiente.
Una opción es utilizar el agua para enviar el calor residual de un centro de datos a lugares donde pueda aprovecharse. En Dinamarca, el agua de los centros de datos se ha utilizado para calentar hogares. En París, durante los Juegos Olímpicos, se utilizó para calentar piscinas.
El agua también puede servir como una especie de batería. La energía generada a partir de fuentes renovables, como turbinas eólicas o paneles solares, puede utilizarse para enfriar el agua que se almacena hasta que se necesita para refrigerar los ordenadores más tarde, lo que reduce el consumo de energía en las horas punta.
Pero a medida que los centros de datos se calientan, la refrigeración por agua por sí sola no es suficiente, afirma Tony Atti, director ejecutivo de Phononic, una startup que suministra chips de refrigeración especializados. Los fabricantes de chips están creando chips que mueven los datos cada vez más rápido. Atti señala a Nvidia, que está a punto de lanzar un chip que procesa 1,6 terabytes por segundo: «A esa velocidad de datos, se desata el caos y la demanda de refrigeración aumenta exponencialmente», afirma.
Según Atti, los chips de los servidores consumen alrededor del 45 % de la energía de un centro de datos. Pero refrigerar esos chips consume ahora casi la misma cantidad de energía, alrededor del 40 %. «Por primera vez, la gestión térmica se está convirtiendo en la puerta de entrada a la expansión de esta infraestructura de IA», afirma.
Los chips de refrigeración de Phononic son pequeños dispositivos termoeléctricos que pueden colocarse sobre o cerca del hardware que necesita refrigeración. Cuando se alimenta un chip LED, este emite fotones; cuando se alimenta un chip termoeléctrico, emite fonones (que son a la energía vibratoria —es decir, a la temperatura— lo que los fotones son a la luz). En resumen, los chips fonónicos empujan el calor de una superficie a otra.
Apretujados en espacios reducidos dentro y alrededor de los servidores, estos chips pueden detectar aumentos mínimos de calor y encenderse y apagarse para mantener una temperatura estable. Cuando están encendidos, empujan el exceso de calor hacia una tubería de agua para que sea expulsado. Atti afirma que también pueden utilizarse para aumentar la eficiencia de los sistemas de refrigeración existentes. Cuanto más rápido se enfría el agua en un centro de datos, menos se necesita.
4/ La reducción de costes va de la mano de la reducción del consumo energético
A pesar del aumento exponencial del consumo energético de la IA, hay motivos para ser optimistas. La sostenibilidad suele ser una cuestión secundaria o un extra deseable. Sin embargo, con la IA, la mejor manera de reducir los costes generales es recortar la factura energética. Es una buena noticia, ya que debería incentivar a las empresas a aumentar la eficiencia. «Creo que hemos logrado alinear la sostenibilidad climática y la sostenibilidad de los costes», afirma Verma. «Creo que, en última instancia, eso se convertirá en el gran motor que impulsará a la industria a ser más eficiente desde el punto de vista energético».
Shim está de acuerdo: «Es simplemente un buen negocio, ¿no? «.
Las empresas se verán obligadas a pensar detenidamente cómo y cuándo utilizan la IA, eligiendo opciones más pequeñas y personalizadas siempre que sea posible, afirma: «Basta con mirar el mundo actual. El gasto en tecnología, como todo lo demás, va a ser aún más crítico en el futuro».
Shim cree que las preocupaciones sobre el consumo energético de la IA son válidas. Pero señala el auge de Internet y el boom de los ordenadores personales hace 25 años. Según ella, a medida que mejoraba la tecnología detrás de esas revoluciones, los costes energéticos se mantuvieron más o menos estables, a pesar de que el número de usuarios se disparó.
Shim cree que esta regla general también se aplicará en esta ocasión: cuando la tecnología madura, se vuelve más eficiente. «Creo que eso es lo que está pasando ahora con la IA», afirma.
La IA se está convirtiendo rápidamente en un producto básico, lo que significa que la competencia en el mercado hará bajar los precios. Para seguir en el juego, las empresas buscarán reducir el consumo de energía, aunque solo sea por el bien de sus resultados. Al final, puede que el capitalismo nos salve después de todo.





