Peligros de Información (Information Hazards)
Riesgos derivados de la capacidad de un modelo de lenguaje para revelar o deducir información sensible y confidencial que es objetivamente cierta.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit236
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
1. Aplicar la minimización de datos y el enmascaramiento/anonimización a nivel de token de toda la información sensible (PII, secretos comerciales) antes de la ingesta y durante la inferencia, para limitar el volumen de datos que el modelo puede retener o exponer. 2. Implementar una capa de filtrado de salida (Output Filtering) y un post-procesamiento continuo para escanear y redactar automáticamente las respuestas generadas por el modelo que contengan patrones de fuga de datos o información confidencial. 3. Establecer controles de acceso estrictos basados en el principio de mínimo privilegio y roles (RBAC), y complementar con auditorías de seguridad y pruebas de penetración (Red-teaming) periódicas para evaluar proactivamente la capacidad de la IA de inferir o revelar datos sensibles.
EVIDENCIA ADICIONAL
Los riesgos de la información pueden generar perjuicios, incluso en ausencia de malicia por parte del diseñador tecnológico y sin un error que sea directamente atribuible al usuario. Por ejemplo, la divulgación de secretos comerciales puede comprometer la viabilidad de una empresa; la revelación de un diagnóstico de salud puede desencadenar una profunda angustia emocional en el paciente, y la exposición de datos privados sensibles constituye una vulneración directa de los derechos de una persona.