Volver al repositorio MIT
2. Privacidad y Seguridad2 - Post-despliegue

Infracción de privacidad

El riesgo de que los sistemas de inteligencia artificial filtren, generen o deduzcan de forma precisa la información privada y los datos personales de los individuos, constituyendo una violación fundamental de la privacidad.

Fuente: MIT AI Risk Repositorymit266

ENTIDAD

2 - IA

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit266

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible

Estrategia de mitigacion

1. Implementar la privacidad desde el diseño (Privacy by Design) como principio fundamental. Esto incluye el uso sistemático de técnicas de minimización de datos, anonimización o seudonimización, y cifrado robusto para proteger los conjuntos de datos sensibles. Se priorizará el empleo de técnicas de IA que preservan la privacidad, como la Privacidad Diferencial o el Cifrado Homomórfico, para proteger la información durante las fases de entrenamiento y la inferencia. 2. Desplegar soluciones avanzadas de Prevención de Pérdida de Datos (DLP) con funcionalidades específicas para la IA generativa. Estas herramientas son esenciales para monitorear y bloquear en tiempo real la introducción (vía prompts) o la exfiltración inadvertida de Información de Identificación Personal (PII) y datos confidenciales a través de las salidas de los modelos, garantizando un control granular sobre el flujo de datos. 3. Instaurar un Marco de Gobernanza de IA exhaustivo y riguroso. Dicho marco debe definir políticas claras sobre el uso autorizado de herramientas de IA (incluyendo la mitigación del "Shadow AI"), exigir la diligencia debida en la selección de proveedores (priorizando licencias empresariales que garanticen la no utilización de datos de entrada para entrenamiento público), y establecer la obligatoriedad de auditorías continuas para asegurar la trazabilidad y el cumplimiento normativo (GDPR, HIPAA, CCPA). 4. Reforzar los controles de acceso y la seguridad perimetral de los sistemas de IA. Esto implica la implementación obligatoria de autenticación multifactor (MFA), la adopción de un modelo de Confianza Cero (Zero Trust), y el control de acceso basado en roles (RBAC) para limitar estrictamente quién puede acceder y manipular los datos de entrenamiento y los sistemas desplegados.

EVIDENCIA ADICIONAL

Caso de estudio: Divulgación no autorizada de datos sensibles, como direcciones de pago e información de tarjeta de crédito, exponiendo fallos críticos en la seguridad y privacidad del sistema de IA (Metz, 2023)