Volver al repositorio MIT
2. Privacidad y Seguridad2 - Post-despliegue

Compromiso de privacidad

Los Ataques de Compromiso de la Privacidad se definen como incidentes de seguridad en los que un modelo de inteligencia artificial expone información sensible o privada que fue utilizada durante su proceso de entrenamiento. Este tipo de vulnerabilidad puede resultar en la filtración de datos altamente confidenciales, como información de identificación personal (DIP) o historiales clínicos, violando el principio fundamental de confidencialidad de los datos originales.

Fuente: MIT AI Risk Repositorymit1139

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1139

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.2 > Vulnerabilidades y ataques a la seguridad del sistema de IA

Estrategia de mitigacion

1. Clasificar, anonimizar (mediante técnicas como privacidad diferencial o tokenización) y cifrar rigurosamente los datos sensibles utilizados en el entrenamiento y la inferencia del modelo, asegurando el estricto cumplimiento del principio de minimización de datos. 2. Implementar una arquitectura de seguridad de confianza cero (Zero-Trust) que aplique el principio de mínimo privilegio para el acceso a modelos y datos de entrenamiento, y segregar el entorno de la IA generativa en instancias privadas para reducir la superficie de exposición. 3. Desplegar sistemas de Prevención de Pérdida de Datos (DLP) con capacidad de detección contextual, complementados con la validación y sanitización de todas las entradas y salidas, para identificar y bloquear la filtración inadvertida o intencional de información confidencial.