Volver al repositorio MIT
2. Privacidad y Seguridad2 - Post-despliegue

Peligros de Información (Information Hazards)

Riesgos derivados de la capacidad de un modelo de lenguaje para revelar o deducir información sensible y confidencial que es objetivamente cierta.

Fuente: MIT AI Risk Repositorymit236

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit236

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible

Estrategia de mitigacion

1. Aplicar la minimización de datos y el enmascaramiento/anonimización a nivel de token de toda la información sensible (PII, secretos comerciales) antes de la ingesta y durante la inferencia, para limitar el volumen de datos que el modelo puede retener o exponer. 2. Implementar una capa de filtrado de salida (Output Filtering) y un post-procesamiento continuo para escanear y redactar automáticamente las respuestas generadas por el modelo que contengan patrones de fuga de datos o información confidencial. 3. Establecer controles de acceso estrictos basados en el principio de mínimo privilegio y roles (RBAC), y complementar con auditorías de seguridad y pruebas de penetración (Red-teaming) periódicas para evaluar proactivamente la capacidad de la IA de inferir o revelar datos sensibles.

EVIDENCIA ADICIONAL

Los riesgos de la información pueden generar perjuicios, incluso en ausencia de malicia por parte del diseñador tecnológico y sin un error que sea directamente atribuible al usuario. Por ejemplo, la divulgación de secretos comerciales puede comprometer la viabilidad de una empresa; la revelación de un diagnóstico de salud puede desencadenar una profunda angustia emocional en el paciente, y la exposición de datos privados sensibles constituye una vulneración directa de los derechos de una persona.