Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue

Atribución no rastreable

Se refiere a la imposibilidad técnica de establecer la procedencia o el fragmento exacto del *corpus* de datos de entrenamiento que determinó una salida específica generada por un modelo de inteligencia artificial. Esta opacidad estructural en la cadena de inferencia impide la verificación de la fuente, lo que complica la gestión de los derechos de autor, la auditoría de sesgos y la rendición de cuentas sobre la información producida.

Fuente: MIT AI Risk Repositorymit1181

ENTIDAD

3 - Otro

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1181

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.4 > Falta de transparencia o interpretabilidad

Estrategia de mitigacion

1. Prioridad Alta: Implementación de un Sistema de Trazabilidad y Procedencia del *Corpus* (Data Provenance) Establecer un protocolo de *data lineage* riguroso que registre de manera inmutable el origen, la licencia y la transformación de cada fragmento del conjunto de datos de entrenamiento. Este sistema debe permitir la **auditoría forense** para correlacionar salidas específicas del modelo con las fuentes de datos primarias que influyeron en su generación, mitigando el riesgo de infracción de derechos de autor y sesgos no documentados. 2. Prioridad Media: Integración de Técnicas de Inteligencia Artificial Explicable (XAI) y Atribución Post-Hoc Adoptar metodologías de **IA Explicable (XAI)**, como LIME o SHAP, para generar **explicaciones locales** de la salida del modelo. Esto debe traducirse en la capacidad de ofrecer una **atribución probabilística** sobre la importancia de las características o los puntos de datos clave en la inferencia, aumentando la interpretabilidad y facilitando la rendición de cuentas. 3. Prioridad Media: Desarrollo de Marcos de Gobernanza y Transparencia Documental Crear políticas internas de **Gobernanza de IA** que exijan la **documentación exhaustiva** del ciclo de vida del modelo, incluyendo la arquitectura, los parámetros de entrenamiento y los criterios de curación de datos. Paralelamente, negociar acuerdos de licencia con proveedores de datos que **garanticen la trazabilidad** y el cumplimiento normativo (p. ej., RGPD o *AI Act* de la UE), fortaleciendo la confianza mediante la transparencia contractual.