Volver al repositorio MIT
2. Privacidad y Seguridad3 - Otro

Exposición

El riesgo se centra en la divulgación de información privada sensible considerada intrínsecamente íntima, cuya preservación ha sido un pilar de la socialización. La inteligencia artificial amplifica esta amenaza al crear nuevos vectores de exposición. Específicamente, las técnicas generativas permiten la reconstrucción de contenido censurado o redactado, y el sistema es capaz de inferir y exponer datos, preferencias e intenciones sensibles que no fueron provistos explícitamente.

Fuente: MIT AI Risk Repositorymit1235

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

3 - Otro

ID del riesgo

mit1235

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible

Estrategia de mitigacion

1. Implementación rigurosa de un marco de minimización de datos (*Data Minimization*) y técnicas de *Anonimización* avanzadas. Es esencial aplicar métodos combinados de *Seudonimización* y *Cifrado* para mitigar activamente el riesgo de *Inferencia* (deducción de datos sensibles) y *Reidentificación*, previendo la capacidad de la IA generativa para reconstruir contenido censurado o redactado. 2. Establecimiento de una política estricta de *Control de Acceso* basada en el principio del *Menor Privilegio* a lo largo de todo el ciclo de vida de la IA, desde la ingesta de datos hasta la operación del modelo. Dicha política debe asegurar el *Cifrado* de la información sensible en reposo y en tránsito dentro de los entornos de entrenamiento y despliegue. 3. Adopción e integración continua de un *Marco de Gestión de Riesgos de IA* (como el NIST AI RMF) para la evaluación y el monitoreo de los sistemas. El enfoque debe incluir la auditoría de los datos de entrenamiento y las interacciones del usuario (instrucciones o *prompts*) para detectar y prevenir activamente nuevos vectores de fuga de información o exposición de preferencias e intenciones inferidas.