
A principios de este año, cuando mi colega Casey Crownhart y yo pasamos seis meses investigando el impacto climático y energético de la IA, llegamos a considerar una cifra en particular como nuestra ballena blanca: cuánta energía consumen los principales modelos de IA, como ChatGPT o Gemini, al generar una sola respuesta.
Esta cifra fundamental seguía siendo difícil de determinar, incluso cuando la carrera por impulsar la IA se intensificó hasta llegar a la Casa Blanca y al Pentágono, y las previsiones indicaban que, en tres años, la IA podría consumir tanta electricidad como el 22 % de todos los hogares estadounidenses.
El problema para encontrar esa cifra, como explicamos en nuestro artículo publicado en mayo, era que las empresas de IA son las únicas que la tienen. Insistimos a Google, OpenAI y Microsoft, pero ninguna de estas empresas accedió a facilitarnos la cifra. Los investigadores con los que hablamos, que estudian el impacto de la IA en las redes eléctricas, lo compararon con intentar medir la eficiencia energética de un coche sin haberlo conducido nunca, haciendo conjeturas basadas en rumores sobre el tamaño de su motor y el ruido que hace al circular por la autopista.
Pero este verano, tras publicar nuestro artículo, empezó a ocurrir algo extraño. En junio, Sam Altman, de OpenAI, escribió que una consulta media en ChatGPT consume 0,34 vatios-hora de energía. En julio, la startup francesa de IA Mistral no publicó una cifra concreta, pero sí una estimación de las emisiones generadas. En agosto, Google reveló que responder a una pregunta en Gemini consume alrededor de 0,24 vatios-hora de energía. Las cifras de Google y OpenAI eran similares a las que Casey y yo habíamos estimado para los modelos de IA de tamaño medio.
Entonces, con esta nueva transparencia, ¿nuestro trabajo ha terminado? ¿Por fin hemos capturado a nuestra ballena blanca? Y si es así, ¿qué pasará ahora con las personas que estudian el impacto climático de la IA? Me puse en contacto con algunas de nuestras antiguas fuentes, y con otras nuevas, para averiguarlo.
Las cifras son vagas y solo se pueden consultar en el chat
Lo primero que me dijeron es que faltan muchos datos en las cifras que las empresas tecnológicas publicaron este verano.
La cifra de OpenAI, por ejemplo, no apareció en un artículo técnico detallado, sino en una entrada de blog de Altman que deja muchas preguntas sin respuesta, como a qué modelo se refería, cómo se midió el consumo de energía y cuánto varía. La cifra de Google, como señala Crownhart https://www.technologyreview.com/2025/08/28/1122685/ai-energy-use-gemini/ , se refiere a la cantidad media de energía por consulta, lo que no nos da una idea de las respuestas de Gemini que consumen más energía, como cuando utiliza un modelo de razonamiento para «pensar» en un problema difícil o genera una respuesta realmente larga.
Las cifras también se refieren únicamente a las interacciones con chatbots, y no a otras formas en las que las personas dependen cada vez más de la IA generativa.
«A medida que los vídeos y las imágenes cobran mayor protagonismo y son utilizados por cada vez más personas, necesitamos cifras de diferentes modalidades y saber cómo se comparan», afirma Sasha Luccioni, responsable de IA y clima de la plataforma de IA Hugging Face.
Esto también es importante porque las cifras relativas a las preguntas formuladas a un chatbot son, como era de esperar, indudablemente pequeñas: la misma cantidad de electricidad que consume un microondas en solo unos segundos. Esa es una de las razones por las que los investigadores en IA y clima no sugieren que el uso de la IA por parte de un individuo suponga una carga climática significativa.
Para obtener un cálculo completo de las necesidades energéticas de la IA —que vaya más allá de lo que se utiliza para responder a una consulta individual y nos ayude a comprender su impacto neto total sobre el clima— se necesitaría información específica sobre cómo se utiliza toda esta IA. Ketan Joshi, analista de grupos climáticos y energéticos, reconoce que los investigadores no suelen obtener información tan específica de otras industrias, pero afirma que en este caso podría estar justificado.
«El ritmo de crecimiento de los centros de datos es indiscutiblemente inusual», afirma Joshi. «Las empresas deberían estar sujetas a un escrutinio mucho mayor».
Tenemos dudas sobre la eficiencia energética
Las empresas que realizan inversiones multimillonarias en IA han tenido dificultades para conciliar este crecimiento de la demanda energética con sus objetivos de sostenibilidad. En mayo, Microsoft afirmó que sus emisiones se han disparado más de un 23 % desde 2020, debido en gran parte a la IA, mientras que la empresa se ha comprometido a ser carbono negativo para 2030. «Ha quedado claro que nuestro camino hacia el carbono negativo es una maratón, no un sprint», escribió Microsoft.
Las empresas tecnológicas suelen justificar esta carga de emisiones argumentando que, en poco tiempo, la propia IA generará eficiencias que la convertirán en un factor positivo para el clima. Quizás el sistema de IA adecuado, según este razonamiento, podría diseñar sistemas de calefacción y refrigeración más eficientes para un edificio, o ayudar a descubrir los minerales necesarios para las baterías de los vehículos eléctricos.
Pero aún no hay indicios de que la IA se haya utilizado de forma útil para hacer estas cosas. Las empresas han compartido anécdotashttps://sustainability.google/stories/harnessing-ai-to-accelerate-sdgs/ sobre el uso de la IA para encontrar puntos críticos de emisión de metano, por ejemplo, pero no han sido lo suficientemente transparentes como para ayudarnos a saber si estos éxitos compensan el aumento de la demanda de electricidad y las emisiones que las grandes tecnológicas han producido con el auge de la IA. Mientras tanto, se prevén más centros de datos y la demanda energética de la IA sigue aumentando sin cesar.
La cuestión de la «burbuja»
Una de las grandes incógnitas en la ecuación energética de la IA es si la sociedad adoptará alguna vez la IA en los niveles que figuran en los planes de las empresas tecnológicas. OpenAI ha afirmado que ChatGPT recibe 2.500 millones de solicitudes al día. Es posible que esta cifra, y las cifras equivalentes de otras empresas de IA, sigan aumentando en los próximos años. Las previsiones publicadas el año pasado por el Laboratorio Nacional Lawrence Berkeley sugieren que, si esto ocurre, solo la IA podría consumir anualmente tanta electricidad como el 22 % de todos los hogares estadounidenses en 2028.
Pero este verano también se observaron signos de desaceleración que socavaron el optimismo del sector. El lanzamiento de GPT-5 por parte de OpenAI se consideró en gran medida un fracaso, incluso por parte de la propia empresa, y ese fracaso llevó a los críticos a preguntarse si la IA podría estar llegando a un punto muerto. Cuando un grupo del MIT descubrió que el 95 % de las empresas no están obteniendo ningún rendimiento de sus enormes inversiones en IA, las acciones se desplomaron. https://futurism.com/data-centers-financial-bubbleLa expansión de los centros de datos específicos para IA podría ser una inversión difícil de recuperar, especialmente porque los ingresos de las empresas de IA siguen siendo difíciles de alcanzar.
Una de las mayores incógnitas sobre la carga energética futura de la IA no es cuánto consume una sola consulta, ni ninguna otra cifra que pueda revelarse. Es si la demanda alcanzará alguna vez la escala para la que las empresas están construyendo o si la tecnología colapsará bajo su propio bombo publicitario. La respuesta determinará si la construcción actual se convierte en un cambio duradero en nuestro sistema energético o en un pico efímero.