Volver al repositorio MIT
2. Privacidad y Seguridad1 - Pre-despliegue

Asociación en LLMs

La "Asociación" en los Modelos de Lenguaje Grandes (LLMs) se refiere a la habilidad del sistema para establecer y mantener vínculos entre múltiples datos de identificación personal (PII) que corresponden a un mismo individuo. Desde una perspectiva de la seguridad en IA, esto implica que si un modelo ha internalizado una conexión entre dos entidades de PII distintas (por ejemplo, $x_i$ y $x_j$), una consulta o 'prompt' específica que solo mencione o esté relacionada con $x_i$ puede coaccionar al modelo para que revele la información asociada $x_j$. El caso ilustrativo más sencillo es que, si el LLM asocia un nombre ("Alicia") con un correo electrónico específico ("alice@email.com"), simplemente preguntar "¿Cuál es el correo electrónico de Alicia?" resulta en la exposición de su dirección, lo que constituye un vector de riesgo significativo para la privacidad y la fuga de datos personales.

Fuente: MIT AI Risk Repositorymit34

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

1 - Pre-despliegue

ID del riesgo

mit34

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible

Estrategia de mitigacion

1. Implementar un proceso de minimización y saneamiento riguroso de los datos de entrenamiento y de entrada (PII y propietaria), aplicando técnicas de anonimización o pseudonimización, como la privacidad diferencial, para prevenir la formación inicial de asociaciones inadvertidas de información sensible. 2. Establecer controles de acceso basados en roles (RBAC) y adherirse al principio de mínimo privilegio (arquitectura Zero Trust), asegurando que el LLM y sus componentes integrados solo puedan acceder al conjunto de datos estrictamente necesario para su función, limitando el alcance de las posibles asociaciones. 3. Desplegar barandillas de validación y filtrado de salida que escanearán y bloquearán las respuestas generadas durante la inferencia para impedir la revelación accidental o por inferencia de cualquier información sensible o PII asociada, actuando como una capa de defensa final.