Google revela el consumo energético de sus aplicaciones Gemini

Google acaba de publicar un informe técnico en el que detalla por primera vez cuánta energía utilizan sus aplicaciones Gemini por cada consulta. Según la compañía, un prompt medio consume 0,24 vatios-hora de electricidad, lo que equivale aproximadamente a encender un microondas doméstico durante un segundo. Además, el reporte incluye estimaciones de emisiones de carbono y consumo de agua asociadas a cada interacción de texto.

Se trata del cálculo más transparente presentado hasta ahora por una gran empresa tecnológica con un producto de IA masivo. Hasta la fecha, los intentos por medir directamente el gasto energético de estos sistemas habían chocado con la falta de acceso a datos internos de las compañías.

Cómo se mide la energía de un prompt

El estudio de Google considera no solo la energía usada por los chips de IA —en este caso, los TPU diseñados por la propia compañía—, sino también la de toda la infraestructura que los sostiene:

  • 58% del consumo proviene de los chips de IA.
  • 25% corresponde al CPU y la memoria de las máquinas que los alojan.
  • 10% se destina a equipos de respaldo inactivos, listos en caso de fallas.
  • 8% está relacionado con la operación del centro de datos, como refrigeración y conversión de energía.

“El objetivo fue ser lo más integrales posible en todo lo que incluimos”, explicó Jeff Dean, científico jefe de Google, en entrevista con MIT Technology Review.

Resultados: energía, emisiones y agua

El informe estima que un prompt medio de texto en Gemini emite 0,03 gramos de CO₂, gracias a que la empresa calcula sus emisiones con un método basado en las compras de energía limpia. Desde 2010, Google ha firmado acuerdos para adquirir más de 22 gigavatios provenientes de fuentes como solar, eólica, geotérmica y nuclear avanzada.

En cuanto al agua, cada consulta requiere aproximadamente 0,26 mililitros, equivalente a cinco gotas, usadas principalmente para refrigeración de los centros de datos.

Un consumo en caída

Uno de los hallazgos más llamativos es que el gasto energético por prompt en Gemini se ha reducido 33 veces entre mayo de 2024 y mayo de 2025. La compañía atribuye esta mejora a la optimización de modelos y software.

Sin embargo, Google advierte que los valores publicados corresponden a un prompt mediano: consultas más complejas, como pedir un análisis detallado de decenas de libros, requieren bastante más energía. Además, el informe se centra exclusivamente en texto, dejando fuera tareas como generación de imágenes o video, que demandan mucho más.

Un paso hacia la transparencia

Expertos celebran este avance como un aporte clave al campo de la investigación en IA y energía. “Creo que será una pieza fundamental”, señaló Jae-Won Chung, investigador de la Universidad de Míchigan y co-líder del proyecto ML.Energy, que rastrea el consumo energético de modelos de IA.

Aun así, investigadores como Sasha Luccioni, especialista en IA y cambio climático en Hugging Face, recuerdan que aún falta información clave, como el número total de consultas diarias que procesa Gemini, lo que permitiría estimar su consumo global. También subrayan la necesidad de una estandarización internacional, un “puntaje de eficiencia energética de la IA” similar al Energy Star que se usa en electrodomésticos.

El informe de Google marca un hito en la transparencia sobre el impacto ambiental de la inteligencia artificial. Aunque quedan preguntas abiertas, por primera vez se ofrece al público una mirada concreta sobre la huella energética de cada interacción con un modelo de IA de gran escala. Para los usuarios, el mensaje es claro: un prompt en Gemini gasta apenas lo mismo que ver unos segundos de televisión o beber unas gotas de agua.