Daños ambientales por operación de LMs
Los Modelos de Lenguaje (ML) y la Inteligencia Artificial generan un impacto ambiental que se articula en cuatro niveles cruciales. En primer lugar, se encuentra el **impacto directo** derivado de la energía necesaria para su entrenamiento y operación. En segundo lugar, los **impactos secundarios** por las emisiones de carbono que provienen de las aplicaciones basadas en ML en uso. En tercer lugar, los **impactos a nivel de sistema**, que surgen cuando estas aplicaciones modifican el comportamiento humano, ya sea promoviendo el consumo o, por el contrario, incrementando la conciencia ambiental. Finalmente, el **impacto sobre los recursos**, que implica la demanda de metales preciosos y materiales esenciales para la fabricación de la infraestructura de *hardware* (como centros de datos, *chips* y dispositivos). Si bien se tiene cierta evidencia sobre el consumo energético directo, se estima que los factores más relevantes para las emisiones globales de CO2 serán los impactos secundarios y sistémicos, cuya cuantificación es considerablemente más difícil. El impacto sobre los recursos, por su parte, podría magnificarse si el cómputo de estas aplicaciones se desplaza hacia dispositivos móviles, lo que generaría una mayor demanda, y su magnitud está intrínsecamente ligada a los ciclos de vida del *hardware*.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
3 - Otro
ID del riesgo
mit227
Linea de dominio
6. Socioeconómico y Ambiental
6.6 > Daño ambiental
Estrategia de mitigacion
1. **Evitar y Minimizar las Emisiones Derivadas de la Operación y Entrenamiento** Implementar la Jerarquía de Mitigación comenzando por la fase de diseño, priorizando el uso de arquitecturas de modelos más livianas y eficientes energéticamente para minimizar la demanda computacional durante el entrenamiento y, crucialmente, durante la inferencia (operación continua). Adicionalmente, asegurar la adquisición de energía de fuentes 100% renovables para los centros de datos, con el objetivo de reducir a cero las emisiones de carbono directas y secundarias asociadas al consumo de combustibles fósiles. 2. **Minimizar el Impacto sobre Recursos Hídricos y Materiales** Desarrollar y aplicar soluciones de gestión de recursos para abordar el impacto material y hídrico. Esto implica adoptar sistemas de enfriamiento para centros de datos que no dependan significativamente de agua dulce, especialmente en áreas de estrés hídrico. Con respecto al *hardware*, fomentar el diseño bajo principios de economía circular, extendiendo la vida útil de los equipos y facilitando el reciclaje de metales preciosos y componentes, a fin de mitigar la demanda de recursos finitos. 3. **Cuantificar el Impacto Sistémico y Establecer la Compensación Ambiental** Implementar una evaluación rigurosa y continua del impacto del ciclo de vida de los sistemas de ML, incluyendo los efectos indirectos a nivel de sistema que modifican el comportamiento humano (aumento del consumo o conciencia ambiental). Los impactos residuales, una vez agotadas las medidas de evitación y minimización, deberán ser compensados mediante la inversión en proyectos de restauración o compensación que demuestren una Ganancia Neta de biodiversidad y servicios ecosistémicos, buscando la meta de un "Impacto Positivo Neto".
EVIDENCIA ADICIONAL
Los Modelos de Lenguaje (ML) y otros grandes modelos de aprendizaje automático conllevan una demanda energética considerable tanto durante su entrenamiento como en su operación [15, 148, 176], lo que, a su vez, genera altas emisiones de carbono si la energía se obtiene a partir de combustibles fósiles [141]. Adicionalmente, el enfriamiento de los centros de datos donde se ejecutan estos cálculos exige volúmenes significativos de agua dulce, lo cual impacta directamente a los ecosistemas circundantes [132]. Es crucial notar que el consumo energético asociado a la operación de estos modelos de redes neuronales profundas (conocida como fase de inferencia) puede superar al de su entrenamiento: Amazon Web Services reportó que el 90% de la demanda de ML en la nube es para inferencia, y Nvidia ha señalado que entre el 80% y el 90% de la carga de trabajo total se dedica a esta fase [141]. Este patrón sugiere que las emisiones derivadas de la operación continua de los ML podrían ser, de hecho, superiores a las generadas durante su etapa de entrenamiento inicial.