Riesgos para la privacidad
Los modelos de IA de propósito general presentan la capacidad de 'filtrar' información de los datos individuales utilizados durante su entrenamiento. Esta vulnerabilidad es especialmente crítica en modelos futuros que manejen datos personales sensibles (salud, finanzas), pudiendo provocar fugas de privacidad muy graves. Adicionalmente, estos sistemas, como los Grandes Modelos de Lenguaje (LLMs), no solo fugan información pasivamente, sino que pueden potenciar activamente el abuso de la privacidad, facilitando la búsqueda más eficiente de datos sensibles en la red o en filtraciones, e incluso permitiendo a los usuarios *inferir* información delicada sobre individuos.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit734
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
1. Aplicar Anónimización, Minimización y Privacidad Diferencial Rigurosa Implementar la anonimización (incluyendo la redacción y seudonimización) y la minimización de los conjuntos de datos de entrenamiento para asegurar que solo se procese la información estrictamente necesaria y que se eliminen los identificadores personales. Adicionalmente, utilizar técnicas de Privacidad Diferencial para inyectar ruido, lo que impide que el modelo memorice y filtre información individual sensible por medio de la inferencia. 2. Establecer Controles de Acceso Basados en Roles (RBAC) y Cifrado Integral Instituir un modelo de control de acceso de mínimo privilegio, como el Control de Acceso Basado en Roles (RBAC) con autenticación multifactor (MFA), para restringir el uso del modelo y el acceso a los datos subyacentes únicamente al personal autorizado. Garantizar el cifrado de datos robusto tanto en reposo como en tránsito para proteger la información contra la exposición no autorizada en caso de una brecha de seguridad. 3. Implementar Filtrado de Salida Contextual y Monitoreo en Tiempo Real Desarrollar y mantener mecanismos de filtrado de salida (output filtering) y de validación de entradas que actúen como barreras de seguridad, previniendo la revelación inadvertida de información sensible memorizada o la ejecución de ataques de extracción. Complementar esta medida con un monitoreo continuo de las interacciones y los registros de actividad del LLM para detectar y responder proactivamente a patrones de uso anómalos o intentos de fuga de datos.