Alto consumo de energía de modelos grandes
El entrenamiento y el despliegue de modelos de inteligencia artificial a gran escala conllevan una elevada demanda energética. La incesante tendencia hacia modelos cada vez más voluminosos exacerba esta problemática, lo que se traduce en un consumo eléctrico excesivo y una consecuente huella ecológica adversa.
ENTIDAD
3 - Otro
INTENCIÓN
3 - Otro
TIEMPO
3 - Otro
ID del riesgo
mit1080
Linea de dominio
6. Socioeconómico y Ambiental
6.6 > Daño ambiental
Estrategia de mitigacion
1. Optimización y Especialización Algorítmica Implementar rigurosas técnicas de optimización a nivel de modelo (p. ej., *quantization*, *pruning* y *knowledge distillation*) y promover el uso de modelos pequeños y especializados, escalando la complejidad del modelo únicamente a la necesidad específica de la tarea para lograr una reducción drástica del consumo energético sin comprometer el rendimiento. 2. Adopción de Arquitecturas de Edge Computing Priorizar el desarrollo y el despliegue de la inferencia de la inteligencia artificial directamente en el dispositivo (*on-device AI* o *edge computing*). Esta descentralización elimina la elevada demanda energética asociada a la transmisión de datos hacia y desde los centros de datos en la nube, optimizando el consumo por tarea. 3. Integración y Transparencia de Energías Limpias Exigir la migración de las infraestructuras de entrenamiento y despliegue a centros de datos que utilicen exclusivamente fuentes de energía renovable. Además, establecer un estándar de transparencia para el cálculo y la publicación de la huella de carbono por llamada a la interfaz de programación de aplicaciones (*API call*).