Volver al repositorio MIT
2. Privacidad y Seguridad2 - Post-despliegue

Toma de decisiones sobre datos privados inferidos

Los sistemas de Inteligencia Artificial de Propósito General (IAPG), como los grandes modelos de lenguaje (LLMs) y sus variantes multimodales, poseen una notable capacidad para inferir correlaciones en los datos de texto. En esencia, pueden realizar deducciones de alta precisión sobre los usuarios a partir de la información contextual que estos les suministran. El riesgo fundamental de esta habilidad es que dichas inferencias pueden inadvertidamente filtrar o revelar información sensible del usuario, dando lugar a un trato desigual o, en el peor de los casos, permitiendo la manipulación sutil de su conducta

Fuente: MIT AI Risk Repositorymit1079

ENTIDAD

2 - IA

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1079

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible

Estrategia de mitigacion

1. Implementación de mecanismos de Privacidad por Diseño, incluyendo la aplicación de técnicas de Privacidad Diferencial (DP) durante el entrenamiento del modelo y el uso de capas de redacción o enmascaramiento de datos sensibles durante la fase de inferencia para mitigar la capacidad de inferencia y exfiltración de información. 2. Establecimiento de sistemas de Monitoreo Continuo para el análisis del comportamiento en tiempo real de los modelos y los patrones de consulta de los usuarios, complementado con la aplicación estricta del Principio de Mínimo Privilegio (PoLP) a través de controles de acceso basados en roles para proteger los *endpoints* y los repositorios de datos. 3. Desarrollo e institucionalización de un marco de Gobernanza de la IA que requiera la realización sistemática de Evaluaciones de Impacto en la Privacidad (PIA) para todos los sistemas que manejen datos personales inferidos, asegurando la trazabilidad y la explicabilidad (XAI) de las decisiones algorítmicas.