Volver al repositorio MIT
6. Socioeconómico y Ambiental3 - Otro

Falta de transparencia del sistema

La carencia de documentación adecuada referente tanto al sistema integral que emplea el modelo de inteligencia artificial como a la función específica y el objetivo operativo de dicho modelo dentro de ese marco sistémico.

Fuente: MIT AI Risk Repositorymit1190

ENTIDAD

1 - Humano

INTENCIÓN

3 - Otro

TIEMPO

3 - Otro

ID del riesgo

mit1190

Linea de dominio

6. Socioeconómico y Ambiental

262 riesgos mapeados

6.5 > Fallo de gobernanza

Estrategia de mitigacion

1. Establecer e implementar una política de Documentación de Modelos de IA (Model Documentation) obligatoria y estructurada. Dicha documentación debe ser exhaustiva, cubriendo el propósito, arquitectura, fuentes de datos, limitaciones, análisis de riesgos y un registro completo de cambios, y debe ser gestionada como un "documento vivo" a lo largo de todo el ciclo de vida del modelo, asegurando su accesibilidad y comprensión por parte de todas las partes interesadas (técnicas y no técnicas), incluidos auditores y reguladores. 2. Institucionalizar un marco formal de Gobernanza de la Explicabilidad (Explainable AI - XAI) para verificar que los sistemas de IA posean mecanismos de trazabilidad y auditabilidad claros. Esto implica la definición de métricas de transparencia estandarizadas y la asignación explícita de roles y responsabilidades (rendición de cuentas) para justificar los resultados y decisiones generados por el modelo. 3. Integrar los requisitos de documentación y transparencia del sistema como un punto de control mandatorio dentro del marco de Gobernanza, Riesgo y Cumplimiento (GRC) de la organización. Se debe exigir que el sistema y su documentación sean sometidos a una evaluación ética y de riesgos formal por un comité multidisciplinario *antes* de su desarrollo e implementación, evitando así la omisión de estos elementos esenciales desde la fase de concepción.