Grado de Transparencia y Explicabilidad
La *transparencia* describe la cualidad de un sistema por la cual se comunica información adecuada sobre su funcionamiento a los actores interesados. En contraste, la *explicabilidad* es la capacidad de un sistema de IA para articular los factores importantes que influyen en sus resultados de una manera comprensible para los humanos. La información sobre el modelo de toma de decisiones es crucial para la transparencia, ya que un bajo grado de esta puede generar riesgos en la equidad, la seguridad y la rendición de cuentas del sistema.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit183
Linea de dominio
7. Seguridad, Fallos y Limitaciones del Sistema de IA
7.4 > Falta de transparencia o interpretabilidad
Estrategia de mitigacion
1. Implementación de la Inteligencia Artificial Explicable (XAI) como Principio de Diseño Adoptar un enfoque "glass-box" (caja de cristal) en el desarrollo de sistemas de IA, privilegiando modelos inherentemente interpretables o integrando técnicas post-hoc (como SHAP o LIME) para asegurar la trazabilidad completa y la comprensión de las decisiones algorítmicas. El objetivo primario es que la arquitectura del sistema permita, desde su concepción, articular los factores influyentes en sus resultados de manera comprensible para los *stakeholders* técnicos y no técnicos, siendo una medida fundamental para la mitigación de sesgos. 2. Establecimiento de un Marco de Gobernanza y Auditoría Periódica Crear un comité multidisciplinar (incluyendo expertos técnicos, legales y éticos) para definir un marco de gobernanza de la IA. Este marco debe incluir la ejecución obligatoria de auditorías éticas y de sesgo con periodicidad definida (anual o semestralmente), evaluando la calidad, representatividad y sesgos de los datos, así como la explicabilidad del modelo. La documentación exhaustiva del ciclo de vida del modelo es imprescindible para la rendición de cuentas (*accountability*) y el cumplimiento normativo. 3. Garantizar la Transparencia y el Derecho a la Explicación para los Usuarios Desarrollar y mantener interfaces de usuario que comuniquen de forma clara y accesible (en lenguaje natural) que están interactuando con un sistema de IA (Transparencia de Interacción). Además, proveer explicaciones específicas y comprensibles (Explicabilidad) sobre las decisiones individuales tomadas por el sistema (por ejemplo, en diagnósticos médicos o decisiones financieras) para generar confianza y cumplir con los requisitos regulatorios sobre el derecho a la explicación.