Exfiltración de datos
La Exfiltración de Datos (Data Exfiltration) va más allá de la simple divulgación de información confidencial, enfocándose en la obtención ilícita de los datos de entrenamiento utilizados para construir un modelo, material que a menudo es sensible o propietario. Por otro lado, la Extracción de Modelos (Model Extraction) representa el mismo vector de ataque, pero dirigido al producto final en lugar de la materia prima: implica conseguir la arquitectura, los parámetros o los hiperparámetros de un modelo propietario, comprometiendo así la propiedad intelectual del sistema (Carlini et al., 2024)
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1140
Linea de dominio
2. Privacidad y Seguridad
2.2 > Vulnerabilidades y ataques a la seguridad del sistema de IA
Estrategia de mitigacion
1. Implementación de Privacidad Diferencial y Control de Acceso Estricto a los Datos de Entrenamiento * Aplicar mecanismos rigurosos de control de acceso al conjunto de datos de entrenamiento sensible y emplear técnicas de Privacidad Diferencial durante el entrenamiento y la inferencia, lo que minimiza la capacidad de un atacante para inferir o exfiltrar puntos de datos individuales. 2. Fortificación (Hardening) y Ofuscación del Modelo de IA * Utilizar estrategias de endurecimiento del modelo, como la cuantización o la destilación de conocimiento (knowledge distillation), para complicar la inferencia precisa de su arquitectura, parámetros e hiperparámetros, contrarrestando eficazmente la Extracción de Modelos. 3. Monitoreo de Comportamiento Anómalo y Limitación de Tasa (Rate Limiting) de Consultas * Establecer sistemas de monitoreo continuo para detectar patrones de consulta inusuales o excesivamente frecuentes que sugieran intentos de exfiltración. Implementar la limitación de tasa dinámica para restringir las interacciones sospechosas y prevenir la extracción masiva de datos o modelos.