Revelación de información confidencial
Este concepto se define como **filtración de datos** (o *data leakage*). Ocurre cuando un modelo de inteligencia artificial expone información sensible o confidencial que fue inadvertidamente incluida durante su desarrollo. Específicamente, si la información se encuentra en los datos de entrenamiento, los datos de ajuste fino, o se ingresa como parte de la instrucción (prompt), el modelo puede reproducirla en la salida generada, comprometiendo así su privacidad.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1179
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
1. Implementación de Controles en la Interfaz de Usuario (Prompt) Instaurar soluciones de Prevención de Pérdida de Datos (DLP) a nivel de *prompt* o instrucción. Este mecanismo debe escanear, clasificar y, en tiempo real, bloquear o aplicar técnicas de *redacción* (eliminación) a la información sensible o confidencial que el usuario intente ingresar en el modelo, mitigando la filtración en la fase de entrada (inferencia). 2. Establecimiento de un Marco de Gobernanza y Entorno de Ejecución Seguro Asegurar que el modelo de IA se ejecute en un entorno controlado (servidores privados, instancias empresariales con garantías contractuales de no uso de datos de entrada para reentrenamiento). Asimismo, aplicar rigurosos controles de acceso (RBAC, ABAC) y autenticación multifactor (MFA) para limitar el acceso al modelo y a sus logs de interacción únicamente al personal autorizado, reduciendo el riesgo de exposición interna. 3. Aplicación de Técnicas de Preservación de la Privacidad en los Datos Subyacentes Aplicar consistentemente métodos criptográficos y de modificación de datos a los conjuntos utilizados para el desarrollo del modelo. Esto incluye la encriptación de datos en reposo y en tránsito, y la utilización de técnicas de anonimización, seudonimización o *Differential Privacy* para mermar la capacidad del modelo de memorizar y, por ende, reproducir información identificable o confidencial específica en sus salidas.