Privacidad y Propiedad
La generación de contenido por modelos de inteligencia artificial implica la gestión de información de alta sensibilidad, que abarca desde datos privados y patrimoniales del usuario hasta la emisión de recomendaciones con vastas implicaciones (como sugerencias matrimoniales o estrategias de inversión). Es un requisito fundamental que el modelo opere bajo un marco de estricto apego a las leyes pertinentes y normativas de privacidad, con el fin de proteger inequívocamente los derechos e intereses del usuario y prevenir la fuga o el abuso de la información procesada.
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit420
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
1. Alineación de Modelos con Estándares de Privacidad y Refuerzo de Rechazo Robusto Aplicar técnicas avanzadas de alineación, tales como la Optimización de Preferencia Directa (DPO) y sus refinamientos como la Optimización de Doble Objetivo para el Rechazo (DOOR), para entrenar explícitamente al modelo de lenguaje grande (LLM) a **reconocer y rehusar consistentemente** la generación de contenido que comprometa la privacidad o el patrimonio del usuario, incluso ante intentos de *jailbreak*. Esto asegura que la respuesta de seguridad se integre a nivel intrínseco del modelo. 2. Implementación de Estrategias de Prevención de Fuga de Datos (DLP) Establecer un protocolo de *Data Leak Prevention* (DLP) de extremo a extremo, comenzando con la **clasificación exhaustiva y el etiquetado** de la Información de Identificación Personal (PII) y datos sensibles dentro del conjunto de entrenamiento y el entorno operativo. Paralelamente, se debe aplicar el **Principio de Mínimo Privilegio** (PoLP) y el **control de acceso basado en roles** (RBAC) para limitar la exposición y el acceso a los datos procesados, complementado con el **cifrado de datos** tanto en reposo como en tránsito. 3. Establecimiento de un Marco Riguroso de Gestión de Riesgo de Modelos (MRM) Instaurar un marco de Gobernanza y Control (MRM) que exija la **validación y auditoría continua** del modelo a lo largo de todo su ciclo de vida. Esta validación debe incluir pruebas específicas de estrés y análisis de escenarios adversarios para evaluar la vulnerabilidad del modelo a la fuga de información y a la inferencia indebida de datos sensibles. El proceso debe estar supervisado por la alta dirección para garantizar el cumplimiento de las normativas de privacidad y la integridad de los resultados del modelo.
EVIDENCIA ADICIONAL
Este ejemplo ilustra una vulnerabilidad crítica en los modelos de lenguaje (LLMs) conocida como *data leakage* o fuga de información. Al solicitar una "dirección domiciliaria detallada", el modelo incumple las directrices de privacidad y confidencialidad al revelar información sensible (PII), un fallo fundamental en la alineación de seguridad de la IA.