Comprometer privacidad filtrando información sensible
Un Modelo de Lenguaje (ML) puede retener, o "memorizar", información de carácter privado que se encuentre inadvertidamente presente en su conjunto de datos de entrenamiento, lo que le confiere la capacidad de exponerla o filtrarla (data leakage). Este fenómeno técnico resulta en una violación directa de la privacidad de los datos afectados [34].
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit211
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
1. Priorizar la Minimización y Des-identificación de Datos Aplicar rigurosas técnicas de pre-procesamiento de datos, incluyendo la minimización de la recolección de información al estrictamente necesario y la aplicación de métodos de des-identificación, como seudonimización, enmascaramiento o tokenización, antes de la inclusión de los datos en el conjunto de entrenamiento del Modelo de Lenguaje, para mitigar la memorización y la subsecuente filtración de información sensible. 2. Implementar Controles de Acceso Estrictos Establecer políticas de control de acceso basado en roles (RBAC) y el principio de mínimo privilegio, asegurando que solo el personal autorizado tenga acceso a los conjuntos de datos sensibles y a la infraestructura del modelo. Esto debe complementarse con la autenticación multifactor (MFA) para restringir el acceso no autorizado a los entornos de entrenamiento y despliegue. 3. Reforzar el Cifrado Integral y la Supervisión Continua Emplear cifrado robusto para proteger la información sensible tanto en reposo como en tránsito, invalidando su utilidad en caso de una brecha. Adicionalmente, establecer un programa de auditorías de seguridad periódicas y un sistema de supervisión continua (SIEM/EDR) para identificar vulnerabilidades y detectar actividades anómalas que pudieran indicar un intento de extracción de datos.
EVIDENCIA ADICIONAL
La divulgación de información privada puede generar los mismos efectos que el 'doxing' (la publicación de datos privados o identificativos de un individuo con una intención maliciosa), provocando un perjuicio psicológico y material [51, 119, 181]