Compromiso de privacidad
Los Ataques de Compromiso de la Privacidad se definen como incidentes de seguridad en los que un modelo de inteligencia artificial expone información sensible o privada que fue utilizada durante su proceso de entrenamiento. Este tipo de vulnerabilidad puede resultar en la filtración de datos altamente confidenciales, como información de identificación personal (DIP) o historiales clínicos, violando el principio fundamental de confidencialidad de los datos originales.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1139
Linea de dominio
2. Privacidad y Seguridad
2.2 > Vulnerabilidades y ataques a la seguridad del sistema de IA
Estrategia de mitigacion
1. Clasificar, anonimizar (mediante técnicas como privacidad diferencial o tokenización) y cifrar rigurosamente los datos sensibles utilizados en el entrenamiento y la inferencia del modelo, asegurando el estricto cumplimiento del principio de minimización de datos. 2. Implementar una arquitectura de seguridad de confianza cero (Zero-Trust) que aplique el principio de mínimo privilegio para el acceso a modelos y datos de entrenamiento, y segregar el entorno de la IA generativa en instancias privadas para reducir la superficie de exposición. 3. Desplegar sistemas de Prevención de Pérdida de Datos (DLP) con capacidad de detección contextual, complementados con la validación y sanitización de todas las entradas y salidas, para identificar y bloquear la filtración inadvertida o intencional de información confidencial.