Datos de Entrenamiento Privados
El creciente uso de Modelos de Lenguaje de Gran Escala (LLMs) ha conllevado la integración de vastos corpus de datos licenciados, creados y públicos. Sin embargo, esta expansión incrementa notablemente el riesgo de que datos privados—aquellos que constituyen Información de Identificación Personal (PII) [84, 86]—se filtren en el material de entrenamiento. La PII es la huella digital sensible de un individuo, abarcando elementos como nombre, correo electrónico, número de teléfono, dirección, historial educativo y trayectoria profesional. La incorporación indebida de PII en un LLM se materializa, fundamentalmente, a través de dos vectores: Primero, mediante la explotación de la vasta data recopilada directamente de la web, que a menudo incluye PII sensible rastreada de fuentes en línea. Segundo, a través de la práctica de alinear el modelo utilizando conversaciones personales entre humanos y máquinas [87], material que es crucial para procesos de optimización como el Ajuste Fino Supervisado (SFT) y el Aprendizaje por Refuerzo a partir de la Retroalimentación Humana (RLHF)
ENTIDAD
1 - Humano
INTENCIÓN
2 - Involuntario
TIEMPO
1 - Pre-despliegue
ID del riesgo
mit32
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
1. Prioridad Alta: Implementar procesos rigurosos de saneamiento y validación de datos (Input Validation and Sanitization) previo al entrenamiento para identificar, anonimizar o eliminar la Información de Identificación Personal (PII) y cualquier dato sensible. Es fundamental establecer la trazabilidad y la procedencia autenticada de todos los conjuntos de datos para asegurar su integridad antes de la ingesta en el corpus. 2. Prioridad Media: Aplicar mecanismos de protección de datos durante el entrenamiento, como la Privacidad Diferencial (Differential Privacy), para inyectar ruido controlado en el modelo o en los datos. Esto proporciona garantías matemáticas de que la pertenencia de un individuo al conjunto de datos de entrenamiento o la extracción de información específica resulta inviable. 3. Prioridad Media/Baja: Fortalecer los controles de acceso (Strong Access Controls) a los conjuntos de datos sensibles y al código del modelo. Paralelamente, priorizar el desarrollo y el entrenamiento interno (in-house) de todos los modelos que gestionen información confidencial para reducir la cadena de suministro de riesgos y la dependencia de proveedores externos no auditados.