Desafíos en percibir, medir y reconocer el daño
Los perjuicios derivados de la Inteligencia Artificial suelen manifestarse de forma sutil o con efectos diferidos en el tiempo, lo que obstaculiza significativamente su correcta identificación, su cuantificación precisa y la implementación de soluciones eficaces.
ENTIDAD
3 - Otro
INTENCIÓN
3 - Otro
TIEMPO
3 - Otro
ID del riesgo
mit935
Linea de dominio
6. Socioeconómico y Ambiental
6.5 > Fallo de gobernanza
Estrategia de mitigacion
1. Establecer un Marco Formal de Gobernanza de IA Definir y aplicar marcos, reglas y estándares claros que dirijan el ciclo de vida de la IA, asegurando la rendición de cuentas, la responsabilidad y el cumplimiento normativo (como la Ley de IA de la UE o el Marco RMF de NIST) como base para la gestión proactiva de cualquier riesgo sistémico. 2. Implementar Mecanismos de Monitoreo Continuo y Auditoría Post-Despliegue Establecer sistemas de seguimiento continuo para evaluar el rendimiento, la deriva del modelo y los impactos éticos/sociales a largo plazo en entornos operativos reales. Estas auditorías deben ser periódicas y multidisciplinares (técnicas, éticas y legales) para identificar desviaciones y perjuicios sutiles o diferidos antes de que se intensifiquen. 3. Fomentar la Transparencia Algorítmica mediante Sistemas de IA Explicable (XAI) Desarrollar e integrar tecnologías de Explicabilidad de la IA (XAI) que obliguen a los modelos a presentar evidencias y trazas de sus conclusiones. Esto es crucial para la justificación de resultados y la cuantificación precisa de cualquier daño al facilitar la comprensión de las decisiones algorítmicas, incluso cuando los efectos son sutiles.