Volver al repositorio MIT
2. Privacidad y Seguridad1 - Pre-despliegue

Privacidad

La información de los usuarios, que abarca la ubicación, los datos personales y la trayectoria de navegación, constituye el insumo fundamental para la vasta mayoría de los métodos de aprendizaje automático impulsados por datos.

Fuente: MIT AI Risk Repositorymit564

ENTIDAD

2 - IA

INTENCIÓN

3 - Otro

TIEMPO

1 - Pre-despliegue

ID del riesgo

mit564

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible

Estrategia de mitigacion

1. Aplicar los principios de minimización y seudonimización de datos Limitar la recopilación y el procesamiento de datos personales estrictamente a lo esencial para el objetivo del sistema de IA. Implementar técnicas robustas de seudonimización o anonimización irreversible en la información sensible (ubicación, trayectoria, datos personales) antes de utilizarla para el entrenamiento o inferencia del modelo, con el fin de mitigar el riesgo de filtración o reidentificación por inferencia. 2. Implementar cifrado robusto y control de acceso de mínimo privilegio Utilizar métodos de cifrado de extremo a extremo (como AES-256) para proteger los datos en reposo y en tránsito. Además, establecer un control de acceso estricto, como el Control de Acceso Basado en Roles (RBAC) o un modelo de Confianza Cero (Zero Trust), para garantizar que solo las entidades y procesos autorizados accedan al conjunto de datos de entrenamiento y a los activos del modelo. 3. Integrar la Privacidad desde el Diseño (Privacy by Design) y establecer una gobernanza rigurosa Incorporar las protecciones de privacidad y seguridad directamente en la arquitectura y el diseño del sistema de IA desde la fase inicial de desarrollo. Esto debe estar respaldado por un marco de gobernanza de datos claro y políticas internas que regulen el uso de la IA, asegurando la trazabilidad y la responsabilidad sobre cómo se gestionan los datos personales.