La IA ‘verde’, la conjura de 18 universidades para frenar el cambio climático con software 

Tres investigadores de la Universitat Politècnica de Catalunya firman un informe que disecciona el consumo desbocado de los modelos de IA y propone, desde la ingeniería de software, un plan para medirlo con una métrica unificada y reducirlo sin sacrificar precisión ni velocidad
Carla Mansanet
2 de julio de 2025 | Compartir: Compartir en twitter Compartir en LinkedIn
La IA ‘verde’, la conjura de 18 universidades para frenar el cambio climático con software 
Centre Européen de Calcul Atomique et Moléculaire (CECAM)

La inteligencia artificial (IA) se ha convertido en la caja de herramientas predilecta de la industria, ya sea para resolver cuestiones relativas a la medicina de precisión o para la gestión del tráfico urbano. No obstante, entrenar modelos de IA a gran escala, que exige la creación progresiva de estructuras más grandes y sofisticadas, puede consumir tanta energía como la que alimenta cientos de miles de hogares europeos durante semanas o incluso meses. A día de hoy, seguimos sin haber llegado a un consenso sobre cómo medir ese gasto (julios, kilovatios hora o toneladas de CO₂ equivalentes), por lo que resulta casi imposible compararlo, regularlo o mitigarlo. Para resolverlo, el paper «Greening AI‑enabled Systems with Software Engineering», que recoge las principales ideas del workshop «Greening AI with Software Engineering» (CECAM-Lorentz)  celebrado en Lausana (Suiza), radiografía el problema y plantea una agenda de investigación para impulsar una IA ‘verde’ desde la ingeniería de software (SE).

Tres voces de Universitat Politècnica de Catalunya (UPC), Silverio Martínez‑Fernández, Alexandra González Joel Castaño, han participado en la redacción y aportado la mirada española a un reto global, en el que han participado otras 17 universidades, en el que sobran los cálculos y falta transparencia. A medida que los modelos crecen, la factura energética se reparte entre dos capítulos.

Por un lado, el entrenamiento consume de golpe cientos de megavatios por hora en centros de datos y, por otro lado, llega la interferencia. Es decir, el entrenamiento podría compararse con fabricar un coche, mientras que la interferencia es el equivalente a conducirlo cada día. Un viaje del vehículo apenas gasta unos vatios, pero cuando millones de usuarios «pisan el acelerador» al mismo tiempo ese goteo supera la energía original y acaba dominando la huella total. Este fenómeno es el que atañe a la IA.

En este marco surge un segundo escollo, directamente relacionado con la dualidad del entrenamiento y la interferencia: medir con rigor cuánta energía consume cada fase. El informe recalca que aún falta un marco metodológico unificado que indique cuánta electricidad y CO₂ gasta un modelo tanto al fabricarse (entrenamiento) como al usarse (inferencia).

Algunos equipos recurren a contadores de bajo nivel para capturar la energía durante el entrenamiento, otros estiman el gasto a partir de los FLOPs del modelo y muchos más emplean aproximaciones indirectas poco comparables. Esta selva de métricas impide determinar con certeza cuál de las dos etapas lastra realmente la factura energética y frena la adopción de prácticas verdes.

La clave, subrayan los autores, es repartir la enorme energía del entrenamiento entre las millones de inferencias que realizará el modelo y ajustar los números al tipo de hardware empleado. Y, además de pensar en la plataforma, debe formularse plan multidimensional en el que se tengan en cuenta factores tan diversos como la precisión, la latencia y la huella ecológica. Solo así se conocerá si un sistema baja de verdad su huella o simplemente cambia de etiqueta.

Evidencias y educación

La investigación en IA avanza a toda velocidad, pero a menudo es complicado comprobar los resultados por una baja trazabilidad. El informe reclama protocolos fáciles de seguir para repetir los experimentos, así como un repositorio abierto en el que cualquiera pueda publicar sus datos y, así, acumular conocimiento empírico comparable. Al fin y al cabo, sin este registro común, no se podrá saber qué qué técnicas reducen de verdad el gasto energético. Por otra parte, los expertos advierten sobre la paradoja de Jevons, que indica que si abaratar una tarea hace que la usemos mucho más, el consumo total puede aumentar en lugar de bajar.

De todos modos, nada cambiará si los equipos no aprenden a pensar con el modo «IA verde» activado desde el principio. Los autores proponen añadir asignaturas de sostenibilidad energética en las carreras de ingeniería y ofrecer formación continua en las empresas. Asimismo, animan a las compañías a medir y premiar indicadores como kilovatios hora o gramos de CO₂ por consulta, además de la precisión del modelo.

Hacer que la próxima oleada de modelos sea tan inteligente como sostenible requiere un impulso conjunto de todos los vértices de la ingeniería de software y, antes de caer en el error de desarrollar sin sostenibilidad, un viejo amigo europeo, preferible es matizar la evolución desde que se incuba el huevo.

Scroll al inicio
Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad