El crecimiento acelerado de la inteligencia artificial en el entorno empresarial está empezando a revelar un desafío poco discutido: el impacto energético asociado al uso de estas tecnologías.
De acuerdo con el reporte ‘Sustainable AI Scaling’, elaborado por la empresa de desarrollo de software Konfront, si la adopción de inteligencia artificial generativa continúa al ritmo actual, la demanda energética vinculada a estas tecnologías podría multiplicarse hasta 24.4 veces hacia 2030.
Actualmente, los centros de datos consumen alrededor del 1.5 % de la electricidad global, equivalente a aproximadamente 415 TWh al año, según datos de la Agencia Internacional de Energía (IEA). Esta demanda podría alcanzar cerca de 945 TWh para 2030, impulsada en gran medida por el crecimiento de la inteligencia artificial.
El reporte ‘Sustainable AI Scaling’ analiza el impacto energético del crecimiento de la IA generativa
Uno de los principales hallazgos del informe es que no todas las aplicaciones de inteligencia artificial requieren el mismo tipo de modelo para operar.
Los modelos de lenguaje de gran escala (LLMs) son utilizados por herramientas capaces de generar textos complejos o responder preguntas abiertas. Aunque ofrecen capacidades avanzadas, también requieren mayor capacidad de cómputo para procesar cada consulta.
Sin embargo, muchas tareas empresariales cotidianas —como responder preguntas simples, procesar información interna o automatizar procesos repetitivos— pueden resolverse mediante modelos más pequeños, conocidos como modelos de lenguaje pequeños (SLMs).
La diferencia en consumo energético entre ambos tipos de modelos es significativa. De acuerdo con el análisis del reporte, un modelo generativo de gran escala puede consumir hasta 4,600 veces más energía por consulta que modelos más simples.
Esta brecha genera una concentración considerable del consumo energético dentro de las aplicaciones empresariales de inteligencia artificial.
Según el estudio ‘The Computational and Energy Footprint of Generative AI in Enterprise Workloads’, desarrollado por investigadores de la Universidad de Cornell, los proyectos de inteligencia artificial generativa representan alrededor del 29 % de los casos de uso dentro de las empresas, pero concentran hasta el 99.9 % del consumo energético asociado a estas tecnologías.
Ante este escenario, el reporte plantea que el desafío no consiste en reducir el uso de inteligencia artificial, sino en optimizar su implementación dentro de las organizaciones.
La propuesta consiste en utilizar distintos tipos de modelos según la complejidad de cada tarea. Los modelos de mayor tamaño pueden emplearse para procesos que requieren razonamiento avanzado o generación de contenido complejo, mientras que los modelos más pequeños pueden encargarse de tareas operativas o repetitivas.
Este enfoque permitiría que las plataformas de inteligencia artificial empresariales dirijan cada solicitud al modelo más adecuado, manteniendo las capacidades avanzadas de la tecnología mientras se reduce el consumo energético y la carga sobre la infraestructura tecnológica.
“Durante los últimos años la conversación sobre inteligencia artificial se ha centrado en su capacidad y velocidad de adopción. Sin embargo, el siguiente paso para las empresas será aprender a escalar estas tecnologías de forma eficiente”, señaló Cordelia Bortoni, directora de growth de Konfront.
“No todas las tareas necesitan el modelo más grande. Cuando las organizaciones utilizan el modelo correcto para cada problema, pueden obtener resultados similares con una fracción del consumo energético”, añadió.
El reporte ‘Sustainable AI Scaling’ concluye que, a medida que la inteligencia artificial se integra en más procesos empresariales, la eficiencia energética comenzará a consolidarse como un criterio clave para diseñar arquitecturas tecnológicas más sostenibles y escalables.
*Con información proporcionada en nota de prensa









