Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue

Robustez y Fiabilidad

La Robustez en Modelos de Inteligencia Artificial La robustez de un modelo de IA se define como la estabilidad de su desempeño: su capacidad de mantener un rendimiento fiable aun ante cambios anómalos o inesperados en los datos de entrada. Estas desviaciones no son errores de procesamiento rutinarios, sino más bien alteraciones severas inducidas por diversas fuentes, que pueden ir desde un atacante malicioso diseñado para engañar al sistema (ataques adversarios), ruido ambiental aleatorio o impredecible, hasta fallos técnicos en otros componentes de la arquitectura del sistema de IA. Este concepto se vuelve particularmente crítico para agentes basados en Inteligencia a Nivel Humano (HLI) o aquellos construidos sobre modelos de aprendizaje automático intrínsecamente poco fiables. Una robustez deficiente implica que el sistema será inherentemente propenso a errores en escenarios reales, lo que representa una limitación fundamental para su despliegue práctico y seguro.

Fuente: MIT AI Risk Repositorymit561

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit561

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.3 > Falta de capacidad o robustez

Estrategia de mitigacion

Prioridad Alta: Ejecución de Pruebas de Robustez Sistémicas y Exhaustivas. Implementar un conjunto de técnicas de evaluación validadas (pruebas de tolerancia a datos ruidosos, entradas adversarias y variaciones de dominio) a lo largo del ciclo de vida del modelo para verificar su capacidad de mantener un desempeño fiable, consistente y predecible bajo condiciones anómalas o imprevistas, cuantificando su estabilidad. Prioridad Media: Aplicación de Técnicas de Entrenamiento Adversario y Regularización. Integrar el entrenamiento adversario como una estrategia fundamental durante el desarrollo del modelo, exponiéndolo sistemáticamente a ejemplos adversos generados sintéticamente para incrementar su resiliencia contra la manipulación intencional (ataques de evasión). Complementariamente, emplear métodos de regularización y normalización de datos para optimizar la generalización y estabilidad. Prioridad Mínima: Establecimiento de Protocolos de Monitoreo Continuo Post-Despliegue. Diseñar e implementar sistemas de vigilancia en tiempo real que rastreen desviaciones en el rendimiento y cambios en la distribución de los datos de entrada (Data Drift). Este monitoreo es crucial para la gestión proactiva del riesgo en la etapa operativa, habilitando la detección temprana de la degradación de la robustez y el reentrenamiento oportuno del modelo.