Infracción de privacidad
El riesgo de que los sistemas de inteligencia artificial filtren, generen o deduzcan de forma precisa la información privada y los datos personales de los individuos, constituyendo una violación fundamental de la privacidad.
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit266
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
1. Implementar la privacidad desde el diseño (Privacy by Design) como principio fundamental. Esto incluye el uso sistemático de técnicas de minimización de datos, anonimización o seudonimización, y cifrado robusto para proteger los conjuntos de datos sensibles. Se priorizará el empleo de técnicas de IA que preservan la privacidad, como la Privacidad Diferencial o el Cifrado Homomórfico, para proteger la información durante las fases de entrenamiento y la inferencia. 2. Desplegar soluciones avanzadas de Prevención de Pérdida de Datos (DLP) con funcionalidades específicas para la IA generativa. Estas herramientas son esenciales para monitorear y bloquear en tiempo real la introducción (vía prompts) o la exfiltración inadvertida de Información de Identificación Personal (PII) y datos confidenciales a través de las salidas de los modelos, garantizando un control granular sobre el flujo de datos. 3. Instaurar un Marco de Gobernanza de IA exhaustivo y riguroso. Dicho marco debe definir políticas claras sobre el uso autorizado de herramientas de IA (incluyendo la mitigación del "Shadow AI"), exigir la diligencia debida en la selección de proveedores (priorizando licencias empresariales que garanticen la no utilización de datos de entrada para entrenamiento público), y establecer la obligatoriedad de auditorías continuas para asegurar la trazabilidad y el cumplimiento normativo (GDPR, HIPAA, CCPA). 4. Reforzar los controles de acceso y la seguridad perimetral de los sistemas de IA. Esto implica la implementación obligatoria de autenticación multifactor (MFA), la adopción de un modelo de Confianza Cero (Zero Trust), y el control de acceso basado en roles (RBAC) para limitar estrictamente quién puede acceder y manipular los datos de entrenamiento y los sistemas desplegados.
EVIDENCIA ADICIONAL
Caso de estudio: Divulgación no autorizada de datos sensibles, como direcciones de pago e información de tarjeta de crédito, exponiendo fallos críticos en la seguridad y privacidad del sistema de IA (Metz, 2023)