Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA1 - Pre-despliegue

Relacionado con entrenamiento (Overfitting robusto)

El entrenamiento adversario se enfrenta al desafío del sobreajuste robusto o *robust overfitting*, un fenómeno crítico por el cual la capacidad del modelo para resistir ataques en datos de prueba disminuye progresivamente a pesar de continuar el proceso de aprendizaje. Esta regresión en la robustez, que ha sido consistentemente observada, se manifiesta de forma particular tras la aplicación de una reducción en la tasa de aprendizaje. En esencia, el sobreajuste robusto compromete la capacidad de generalización efectiva del modelo, reduciendo significativamente su nivel de defensa intrínseca frente a ataques adversarios novedosos.

Fuente: MIT AI Risk Repositorymit978

ENTIDAD

3 - Otro

INTENCIÓN

2 - Involuntario

TIEMPO

1 - Pre-despliegue

ID del riesgo

mit978

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.3 > Falta de capacidad o robustez

Estrategia de mitigacion

1. Implementación de Parada Temprana (Early Stopping) Establecer un criterio de detención del entrenamiento que monitoree el rendimiento de la robustez del modelo en un conjunto de datos de validación (no visto) y cese el proceso en el momento en que dicha robustez comience a declinar. Esta estrategia aborda directamente la manifestación del sobreajuste robusto al prevenir la continuación del aprendizaje que degrada la capacidad de generalización. 2. Aplicación de Regularización L2 Incorporar un término de penalización L2 en la función de coste. Esta técnica restringe la magnitud de los pesos del modelo, desalentando la complejidad excesiva y promoviendo la obtención de parámetros más pequeños y difusos. La regularización L2 es fundamental para mejorar la generalización del modelo y aumentar su defensa intrínseca frente a ataques adversarios novedosos. 3. Empleo de Técnicas de Aumento de Datos (Data Augmentation) Amplificar la diversidad del conjunto de entrenamiento mediante la generación sistemática de versiones modificadas de los datos existentes. Al exponer el modelo a un espectro más amplio de variaciones, se le obliga a aprender características más invariantes y robustas, mejorando significativamente su capacidad para generalizar con precisión a datos de prueba.