Volver al repositorio MIT
2. Privacidad y Seguridad2 - Post-despliegue

Exfiltración de datos

La Exfiltración de Datos (Data Exfiltration) va más allá de la simple divulgación de información confidencial, enfocándose en la obtención ilícita de los datos de entrenamiento utilizados para construir un modelo, material que a menudo es sensible o propietario. Por otro lado, la Extracción de Modelos (Model Extraction) representa el mismo vector de ataque, pero dirigido al producto final en lugar de la materia prima: implica conseguir la arquitectura, los parámetros o los hiperparámetros de un modelo propietario, comprometiendo así la propiedad intelectual del sistema (Carlini et al., 2024)

Fuente: MIT AI Risk Repositorymit1140

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1140

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.2 > Vulnerabilidades y ataques a la seguridad del sistema de IA

Estrategia de mitigacion

1. Implementación de Privacidad Diferencial y Control de Acceso Estricto a los Datos de Entrenamiento * Aplicar mecanismos rigurosos de control de acceso al conjunto de datos de entrenamiento sensible y emplear técnicas de Privacidad Diferencial durante el entrenamiento y la inferencia, lo que minimiza la capacidad de un atacante para inferir o exfiltrar puntos de datos individuales. 2. Fortificación (Hardening) y Ofuscación del Modelo de IA * Utilizar estrategias de endurecimiento del modelo, como la cuantización o la destilación de conocimiento (knowledge distillation), para complicar la inferencia precisa de su arquitectura, parámetros e hiperparámetros, contrarrestando eficazmente la Extracción de Modelos. 3. Monitoreo de Comportamiento Anómalo y Limitación de Tasa (Rate Limiting) de Consultas * Establecer sistemas de monitoreo continuo para detectar patrones de consulta inusuales o excesivamente frecuentes que sugieran intentos de exfiltración. Implementar la limitación de tasa dinámica para restringir las interacciones sospechosas y prevenir la extracción masiva de datos o modelos.