Volver al repositorio MIT
2. Privacidad y Seguridad2 - Post-despliegue

Comprometer privacidad/seguridad infiriendo información sensible

Riesgo Anticipado: La Inferencia como Agente de Filtración de Privacidad Se anticipa el riesgo de que ocurran violaciones a la privacidad durante la fase de inferencia de los Modelos de Lenguaje (ML), incluso sin que los datos del individuo hayan sido incluidos en el corpus de entrenamiento. La preocupación clave reside en la capacidad de los ML para incrementar la precisión con la que infieren rasgos protegidos y sensibles —como la orientación sexual, el género o la filiación religiosa— a partir únicamente de la información proporcionada en la entrada o *prompt*. Esta habilidad de deducción puede facilitar la construcción de perfiles individuales detallados que contienen información veraz y altamente privada, sin que el usuario tenga conocimiento ni haya otorgado su consentimiento.

Fuente: MIT AI Risk Repositorymit212

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit212

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible

Estrategia de mitigacion

1. Aplicar técnicas de anonimización robusta y privacidad diferencial a los conjuntos de datos de entrenamiento y al proceso de inferencia para mitigar el riesgo de inferencia de atributos sensibles, aun a partir de datos aparentemente anónimos. 2. Implementar controles de acceso estrictos (como autenticación multifactor y permisos basados en roles) y políticas de minimización de datos, asegurando que solo el personal autorizado acceda a la información y que la cantidad de datos personales procesados sea estrictamente relevante para la finalidad prevista. 3. Emplear arquitecturas de "IA Privada" o de inferencia en el borde (Edge AI) que permitan ejecutar el proceso de inferencia directamente en entornos locales o del usuario. Esto previene la transferencia de información sensible del *prompt* a servidores centralizados, limitando así las oportunidades de violación de la privacidad.

EVIDENCIA ADICIONAL

A modo de ilustración, las expresiones lingüísticas que producimos (como los tuits) ya son objeto de análisis sofisticados para inferir información de carácter privado. Esto incluye desde la predicción de la orientación política [121, 144] o la edad [131, 135], hasta la estimación de datos sensibles de salud, como la probabilidad de recaídas en adicciones [63].