Falta de transparencia del sistema
La carencia de documentación adecuada referente tanto al sistema integral que emplea el modelo de inteligencia artificial como a la función específica y el objetivo operativo de dicho modelo dentro de ese marco sistémico.
ENTIDAD
1 - Humano
INTENCIÓN
3 - Otro
TIEMPO
3 - Otro
ID del riesgo
mit1190
Linea de dominio
6. Socioeconómico y Ambiental
6.5 > Fallo de gobernanza
Estrategia de mitigacion
1. Establecer e implementar una política de Documentación de Modelos de IA (Model Documentation) obligatoria y estructurada. Dicha documentación debe ser exhaustiva, cubriendo el propósito, arquitectura, fuentes de datos, limitaciones, análisis de riesgos y un registro completo de cambios, y debe ser gestionada como un "documento vivo" a lo largo de todo el ciclo de vida del modelo, asegurando su accesibilidad y comprensión por parte de todas las partes interesadas (técnicas y no técnicas), incluidos auditores y reguladores. 2. Institucionalizar un marco formal de Gobernanza de la Explicabilidad (Explainable AI - XAI) para verificar que los sistemas de IA posean mecanismos de trazabilidad y auditabilidad claros. Esto implica la definición de métricas de transparencia estandarizadas y la asignación explícita de roles y responsabilidades (rendición de cuentas) para justificar los resultados y decisiones generados por el modelo. 3. Integrar los requisitos de documentación y transparencia del sistema como un punto de control mandatorio dentro del marco de Gobernanza, Riesgo y Cumplimiento (GRC) de la organización. Se debe exigir que el sistema y su documentación sean sometidos a una evaluación ética y de riesgos formal por un comité multidisciplinario *antes* de su desarrollo e implementación, evitando así la omisión de estos elementos esenciales desde la fase de concepción.