Volver al repositorio MIT
2. Privacidad y Seguridad2 - Post-despliegue

Invasión de Privacidad

La dependencia intrínseca de los sistemas de inteligencia artificial en vastas colecciones de datos para su entrenamiento y funcionamiento efectivo introduce un riesgo significativo para la privacidad. Esta amenaza se materializa si los datos de carácter sensible son objeto de una manipulación deficiente o se utilizan con propósitos indebidos.

Fuente: MIT AI Risk Repositorymit437

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit437

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible

Estrategia de mitigacion

1. Implementar un marco de Gobernanza de Datos y Principios de Privacidad por Diseño (Privacy-by-Design), aplicando tecnologías de mejora de la privacidad (PETs) como la anonimización, la seudonimización y el cifrado robusto de datos sensibles (por ejemplo, cifrado homomórfico o privacidad diferencial), asegurando la minimización de datos y el control de acceso riguroso (RBAC, MFA) a los almacenes de datos. 2. Establecer un proceso formal de Evaluación de Impacto en la Privacidad (PIA) y auditorías de seguridad periódicas para identificar proactivamente riesgos durante el ciclo de vida del dato. Adicionalmente, garantizar la transparencia y el consentimiento informado al proporcionar a los usuarios información clara y concisa sobre los datos recopilados por los sistemas de IA y los propósitos de su uso. 3. Implementar un sistema de monitoreo continuo que aplique análisis de comportamiento y detección de anomalías para rastrear el rendimiento del modelo, la calidad de los datos y cualquier patrón de consulta inusual que pueda indicar una posible inferencia o filtración de información sensible. Esto debe complementarse con la revisión constante de los registros de auditoría (audit logs).