El crecimiento acelerado de la inteligencia artificial, en el sector empresarial, comienza a perfilar un nuevo frente de análisis: su impacto en el consumo energético y en la eficiencia operativa de las organizaciones.
De acuerdo con el reporte Sustainable AI Scaling, de la empresa Konfront, la demanda energética asociada al uso de inteligencia artificial podría multiplicarse hasta 24.4 veces hacia 2030 si se mantiene el ritmo actual de adopción, especialmente en aplicaciones basadas en modelos generativos.
Actualmente, los centros de datos consumen cerca del 1.5% de la electricidad global, equivalente a aproximadamente 415 TWh anuales, según la Agencia Internacional de Energía. Las proyecciones indican que esta cifra podría alcanzar los 945 TWh hacia el final de la década, impulsada en gran medida por el crecimiento de soluciones de inteligencia artificial.
El análisis identifica que el consumo energético no se distribuye de manera uniforme entre las distintas aplicaciones de IA. Los modelos de lenguaje de gran escala (LLMs), utilizados para generar contenido complejo o responder consultas abiertas, requieren una capacidad de cómputo significativamente mayor frente a modelos más simples.
Modelos de IA y su impacto en el consumo energético
En contraste, los modelos de lenguaje pequeños (SLMs) pueden resolver tareas operativas como automatización de procesos, consultas internas o procesamiento de información con un consumo energético considerablemente menor. La diferencia es relevante: un modelo generativo de gran escala puede consumir hasta 4,600 veces más energía por consulta que un modelo más ligero.
Esta disparidad genera una alta concentración del consumo energético. Investigaciones de la Universidad de Cornell indican que, dentro de un portafolio típico de aplicaciones empresariales de IA, los casos de uso generativos representan alrededor del 29% del total, pero concentran hasta el 99.9% del consumo energético.
Estrategias para optimizar el uso energético de la IA
Frente a este escenario, el reporte plantea una oportunidad para optimizar el uso de la inteligencia artificial mediante una asignación eficiente de los recursos tecnológicos. La recomendación central consiste en utilizar distintos modelos según la complejidad de cada tarea, reservando los sistemas más avanzados para procesos que realmente requieren capacidades de razonamiento o generación compleja.
Este enfoque permite mantener el desempeño de las soluciones, al mismo tiempo que reduce la carga energética y mejora la eficiencia de la infraestructura digital en las empresas.
“Durante los últimos años la conversación sobre inteligencia artificial se ha centrado en su capacidad y velocidad de adopción. El siguiente paso para las empresas será aprender a escalar estas tecnologías de forma eficiente”, señaló Cordelia Bortoni, directora de Growth de Konfront.