Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue

Deriva de datos (Data drift)

La *desviación de datos* (*data drift*) es el fenómeno por el cual la distribución estadística de los datos que un modelo de inteligencia artificial recibe en su entorno operativo real se vuelve significativamente diferente de la distribución de los datos utilizados originalmente durante su fase de entrenamiento. Este desajuste progresivo es una causa fundamental de la degradación gradual del rendimiento y la precisión predictiva del modelo.

Fuente: MIT AI Risk Repositorymit895

ENTIDAD

3 - Otro

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit895

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.3 > Falta de capacidad o robustez

Estrategia de mitigacion

- Establecer un esquema de monitoreo continuo y automatizado que utilice pruebas estadísticas de distribución (por ejemplo, la prueba de Kolmogorov-Smirnov o el Índice de Estabilidad Poblacional - PSI) para detectar desviaciones significativas en las propiedades estadísticas de las características de entrada en tiempo real. - Establecer ciclos de reentrenamiento periódico y adaptativo del modelo, incorporando conjuntos de datos recientes y representativos para asegurar que los parámetros del modelo se mantengan alineados con la distribución de datos operativa actual. - Realizar un análisis de estabilidad de las características (Feature Stability) a través de la partición temporal de los datos y, en caso de una alerta de deriva, colaborar con expertos del dominio para identificar la causa raíz y re-diseñar el conjunto de características si es necesario.