Volver al repositorio MIT
6. Socioeconómico y Ambiental2 - Post-despliegue

Gobernanza

La naturaleza intrínsecamente compleja y el ritmo acelerado de evolución de los sistemas de inteligencia artificial plantean un desafío fundamental para su gobernanza efectiva, lo que se traduce en una vulnerabilidad sistémica ante fallos de regulación y supervisión.

Fuente: MIT AI Risk Repositorymit917

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit917

Linea de dominio

6. Socioeconómico y Ambiental

262 riesgos mapeados

6.5 > Fallo de gobernanza

Estrategia de mitigacion

1. Establecer un Marco de Gobernanza de IA Exhaustivo Definir e implementar una estructura de gobernanza interfuncional y adaptable que establezca políticas claras, roles, responsabilidades (rendición de cuentas), y un apetito de riesgo para los sistemas de IA a lo largo de todo su ciclo de vida, alineándose con normativas y marcos de referencia internacionales pertinentes (e.g., NIST AI RMF, Ley de IA de la UE). 2. Implementar la Evaluación, Auditoría y Monitorización Continua Instituir procesos sistemáticos de evaluación de riesgos (incluyendo *red teaming* y *stress testing*) y auditorías periódicas independientes para identificar sesgos algorítmicos, fallas de datos y vulnerabilidades de seguridad. La monitorización continua en tiempo real es esencial para detectar y mitigar el *model drift* y la actividad adversaria post-despliegue. 3. Garantizar la Transparencia y Explicabilidad (XAI) con Supervisión Humana Priorizar el uso de técnicas de IA Explicable (XAI) y una documentación rigurosa de todo el ciclo de vida del modelo para hacer inteligibles los procesos de toma de decisiones. Esto debe complementarse con mecanismos de supervisión humana (*Human-in-the-Loop*) y la capacidad de anular decisiones críticas, asegurando la trazabilidad y la responsabilidad final en la toma de decisiones de alto impacto.