Volver al repositorio MIT
2. Privacidad y Seguridad2 - Post-despliegue

Información personal en datos

La presencia de información personal identificable (PII) o sensible (SPI) en los datos de entrenamiento de un modelo de IA crea un riesgo de **extracción involuntaria de datos**. El modelo podría 'memorizar' estos registros y revelarlos a un usuario, resultando en la divulgación no deseada de información confidencial.

Fuente: MIT AI Risk Repositorymit1146

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1146

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible

Estrategia de mitigacion

- Aplicación de Estrategias de Privacidad por Diseño (PbD) en la Gestión de Datos de Entrenamiento Implementar rigurosamente el principio de minimización de datos para asegurar que solo la información estrictamente necesaria sea utilizada para el entrenamiento del modelo. De manera concurrente, aplicar técnicas avanzadas de desidentificación, tales como la anonimización (p. ej., generalización, adición de ruido) o la seudonimización, al conjunto de datos de entrada para disociar los registros de los identificadores personales y mitigar el riesgo de memorización del modelo. - Establecimiento de Controles de Acceso Granulares y el Principio de Mínimo Privilegio Fortalecer la gobernanza de seguridad mediante la implementación de autenticación multifactor y el establecimiento de un control de acceso basado en roles que aplique el Principio de Mínimo Privilegio (PoLP). Este control debe asegurar que el acceso a los datos de entrenamiento sensibles, a los artefactos del modelo y a los entornos de inferencia se limite exclusivamente al personal indispensable para las funciones requeridas. - Integración de Mecanismos de Filtrado y Detección de Fugas en la Inferencia Desarrollar e integrar módulos de escaneo continuo en la capa de salida (output) del modelo, utilizando sistemas de detección de entidades nombradas (NED) o patrones de expresiones regulares. El objetivo es identificar y prevenir la filtración de Información Personal Identificable (PII) o Sensible (SPI) generada involuntariamente por el modelo antes de su divulgación al usuario final.