Privacidad
El riesgo inherente de que un sistema de inteligencia artificial comprometa la esfera de la privacidad individual. Este potencial de infracción se manifiesta a través de tres mecanismos fundamentales: la recopilación de datos personales sensibles, el modo en que se procesa dicha información, o las conclusiones e inferencias de naturaleza privada que el sistema pueda derivar.
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
3 - Otro
ID del riesgo
mit165
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
1. Integración de la Privacidad desde el Diseño (Privacy by Design) y Minimización de Datos Establecer la privacidad como un principio fundamental desde la fase de diseño del sistema de IA, limitando la recopilación y el almacenamiento de datos personales estrictamente a lo esencial y a la finalidad previamente definida (limitación de la finalidad) para reducir intrínsecamente la superficie de ataque y el riesgo regulatorio. 2. Aplicación Rigurosa de Técnicas de Preservación de la Privacidad Implementar de manera consistente técnicas avanzadas para la protección de los datos que deben ser utilizados. Esto incluye el cifrado robusto de los datos en tránsito y en reposo, la anonimización o pseudonimización de la información sensible, y la utilización de enfoques como la Privacidad Diferencial o los Datos Sintéticos para el entrenamiento de modelos, minimizando la exposición de los datos personales reales. 3. Establecimiento de Controles de Acceso Estrictos y Gobernanza Continua Implementar arquitecturas de Confianza Cero (Zero Trust) y controles de acceso de mínimo privilegio a los datos de entrenamiento y a los activos del modelo (arquitectura, pesos). Además, realizar auditorías de seguridad y monitorización continuas del sistema de IA para detectar de forma proactiva patrones de riesgo, filtraciones de datos o inferencias inesperadas de información sensible.