Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue

Rendimiento y Robustez

La **Robustez** en la Inteligencia Artificial se refiere a una doble capacidad esencial. Por un lado, es el aseguramiento de que el sistema puede cumplir su propósito de manera fiable (su *rendimiento*). Por el otro, y de forma crucial, es su **resiliencia** ante *inputs* inesperados, inusuales o adversos. Una falla en el rendimiento socava el funcionamiento correcto del sistema; sin embargo, una falla en la robustez expone al sistema a vulnerabilidades que pueden escalar hasta generar consecuencias operacionales o de seguridad de extrema gravedad.

Fuente: MIT AI Risk Repositorymit164

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit164

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.3 > Falta de capacidad o robustez

Estrategia de mitigacion

1. Implementación de **Entrenamiento Adversario** y **Pruebas de Resiliencia** de forma continua (Red-Teaming y Stress-Testing) para fortalecer el modelo frente a *inputs* maliciosos, garantizando que el sistema mantenga su rendimiento y funcionalidad bajo condiciones adversas o inesperadas. 2. Establecimiento de un marco de **Monitoreo Continuo (24/7)** en entornos de producción, con énfasis en la detección temprana de anomalías, degradación de métricas de rendimiento y la identificación de *data drift* o cambios en la distribución de los datos de entrada, permitiendo una intervención proactiva. 3. Integración de **Validación Automatizada de *Inputs*** y **Controles de Calidad de Datos** a lo largo del ciclo de vida del sistema, asegurando que solo los datos íntegros y dentro de las distribuciones esperadas alimenten el modelo, mitigando así el riesgo de sesgos o fallos funcionales inducidos por la información.