Exposición
El riesgo se centra en la divulgación de información privada sensible considerada intrínsecamente íntima, cuya preservación ha sido un pilar de la socialización. La inteligencia artificial amplifica esta amenaza al crear nuevos vectores de exposición. Específicamente, las técnicas generativas permiten la reconstrucción de contenido censurado o redactado, y el sistema es capaz de inferir y exponer datos, preferencias e intenciones sensibles que no fueron provistos explícitamente.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
3 - Otro
ID del riesgo
mit1235
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
1. Implementación rigurosa de un marco de minimización de datos (*Data Minimization*) y técnicas de *Anonimización* avanzadas. Es esencial aplicar métodos combinados de *Seudonimización* y *Cifrado* para mitigar activamente el riesgo de *Inferencia* (deducción de datos sensibles) y *Reidentificación*, previendo la capacidad de la IA generativa para reconstruir contenido censurado o redactado. 2. Establecimiento de una política estricta de *Control de Acceso* basada en el principio del *Menor Privilegio* a lo largo de todo el ciclo de vida de la IA, desde la ingesta de datos hasta la operación del modelo. Dicha política debe asegurar el *Cifrado* de la información sensible en reposo y en tránsito dentro de los entornos de entrenamiento y despliegue. 3. Adopción e integración continua de un *Marco de Gestión de Riesgos de IA* (como el NIST AI RMF) para la evaluación y el monitoreo de los sistemas. El enfoque debe incluir la auditoría de los datos de entrenamiento y las interacciones del usuario (instrucciones o *prompts*) para detectar y prevenir activamente nuevos vectores de fuga de información o exposición de preferencias e intenciones inferidas.