Toma de decisiones sobre datos privados inferidos
Los sistemas de Inteligencia Artificial de Propósito General (IAPG), como los grandes modelos de lenguaje (LLMs) y sus variantes multimodales, poseen una notable capacidad para inferir correlaciones en los datos de texto. En esencia, pueden realizar deducciones de alta precisión sobre los usuarios a partir de la información contextual que estos les suministran. El riesgo fundamental de esta habilidad es que dichas inferencias pueden inadvertidamente filtrar o revelar información sensible del usuario, dando lugar a un trato desigual o, en el peor de los casos, permitiendo la manipulación sutil de su conducta
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1079
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
1. Implementación de mecanismos de Privacidad por Diseño, incluyendo la aplicación de técnicas de Privacidad Diferencial (DP) durante el entrenamiento del modelo y el uso de capas de redacción o enmascaramiento de datos sensibles durante la fase de inferencia para mitigar la capacidad de inferencia y exfiltración de información. 2. Establecimiento de sistemas de Monitoreo Continuo para el análisis del comportamiento en tiempo real de los modelos y los patrones de consulta de los usuarios, complementado con la aplicación estricta del Principio de Mínimo Privilegio (PoLP) a través de controles de acceso basados en roles para proteger los *endpoints* y los repositorios de datos. 3. Desarrollo e institucionalización de un marco de Gobernanza de la IA que requiera la realización sistemática de Evaluaciones de Impacto en la Privacidad (PIA) para todos los sistemas que manejen datos personales inferidos, asegurando la trazabilidad y la explicabilidad (XAI) de las decisiones algorítmicas.